网易首页 > 网易号 > 正文 申请入驻

ChatGPT风头正盛,但生成式AI有10大缺陷值得警惕

0
分享至

经过科技人员几十年的不懈努力,现实世界中的人工智能现在终于达到了一个临界点。ChatGPT和DALL-E这样的AI模型的惊人表现,让很多人感受到越来越聪明的AI系统正在赶超人类。

生成式AI的功能如此多样和独特,以至于人们很难相信它们来自机器。但是一旦奇迹感消退,生成式AI的明星效应也会消失。AI在一些应用中也显示了其场景感知或常识的局限性, 很多人正在关注或担心生成式AI的缺点或缺陷。

以下是人们所担心的生成式AI的10个缺点或缺陷。

1.抄袭内容

当研究人员创建DALL-E和ChatGPT等生成式AI模型时,这些实际上只是从训练集中的数百万个示例中创建的新模式。其结果是从各种数据来源提取的剪切粘贴合成的,而人类这种行为被称为“抄袭”。

当然,人类也是通过模仿来学习的,但在某些情况下,这种抄袭并不可取,甚至违法。而生成式AI生成的内容由大量文本组成,或多或少抄袭了一些内容。有时其中涉及到足够多的混合或合成,即使是大学教授也可能难以检测到真实来源。总之,其生成的内容缺少的是独特性。尽管它们看上去功能强大,但并不能生产出真正的创新产品。

2.版权问题

虽然抄袭是学校尽力避免的问题,但版权法适用于市场。当某人窃取他人的知识产权或工作成果时,那么可能会被人起诉,或者会被处以巨额罚款。但是AI系统呢?同样的规则适用于它们吗?

版权是一个复杂的主题,生成式AI的法律地位将需要数年时间才能确定。但需要记住的是,当AI开始取代人类的一些工作的时间,那么就会有人根据版权法规提起诉讼。

3. 无偿获取人类的劳动

生成式AI引发的法律问题不仅仅是抄袭和侵犯版权,一些律师已经AI引发的道德发起诉讼。例如,一家制作绘图程序的公司是否收集有关用户绘图行为的数据,然后将这些数据用于AI培训目的?人类是否应该为这种创造性劳动的使用获得补偿?

AI的成功很大程度上源于对数据的访问。那么,生成数据的人类想要从中获利会发生什么呢?那么什么是公平的?什么是合法的?

4.利用信息而不创造知识

AI擅长模仿人类需要数年才能发展出来的那种智能。当一位人类学者介绍一位不知名的17世纪艺术家,或者一名艺术家用一种几乎被人遗忘的文艺复兴时期的音调创作出新的音乐时,人们对他们具有高深的知识和技能感到钦佩,因为这需要多年的学习和练习。当AI只经过几个月的训练就能做同样的事情时,其结果可能会非常精确和正确,但总是感觉缺少了什么。

训练有素的AI系统机器通过获取大量信息了解某一事物,甚至可以破译玛雅象形文字。AI似乎在模仿人类创造力中有趣和不可预测的一面,但它们并不能真正做到这一点。与此同时,不可预测性是创造性创新的驱动力。像时尚行业不仅沉迷于变化,而且被变化所定义。事实上,AI和人类都有各自擅长的领域。

5.智能增长受限

说到智能,AI本质上是机械的和基于规则的。一旦AI系统通过一组数据进行训练,就会创建了一个模型,而这个模型并没有真正改变。一些工程师和数据科学家设想,随着时间的推移,逐步重新训练AI模型,这样AI就能学会适应。

但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定的形式编码特定的知识。这可能适用于某些行业。AI的危险在于,其智能增长将永远被其训练数据的局限性所困。当人类变得依赖生成式AI,以至于无法再为训练模型提供新的材料时,将会发生什么?

6.隐私和安全性有待提高

AI的训练需要大量数据,人类并不总是那么确定神经网络的结果是什么。如果AI从训练数据中泄露个人信息怎么办?更糟糕的是,控制AI要困难得多,因为它们的设计非常灵活。关系数据库可以限制对具有个人信息的特定表的访问。然而,AI可以通过数十种不同的方式进行查询。

网络攻击者将很快学会如何以正确的方式提出正确的问题,以获取他们想要的敏感数据。假设网络攻击者锁定了某一特定设施的纬度和经度,可能会询问AI系统那个地点的确切时间,而尽职的AI系统可能会回答这个问题。因此,如何训练AI保护隐私数据也是一件困难的事情。

7.产生偏见

即使是早期的大型机程序员也理解计算机问题的核心,他们创造了“垃圾输入,垃圾输出”(GIGO)这一概念。AI的许多问题来自于糟糕的训练数据。如果数据集不准确或有偏见,就会反映在其输出结果中。

生成式AI的核心硬件由逻辑驱动,但建造和训练机器的人类却不是。偏见和错误已经被证明可以进入AI模型。也许有人使用了有偏见的数据来创建模型,也许他们只是覆盖了防止AI回答特定的热点问题,也许他们输入了一些固定的答案,而这些将让AI系统产生偏见。

8. 也会犯错

人们很容易原谅AI模型犯的错误,因为它们在很多其他事情上都做得很好,只是许多错误很难预测,因为AI的思维方式与人类不同。例如,许多使用文本转图像功能的用户发现,AI在相当简单的事情上都会犯错,例如计数。

人类从小学就开始学习基本的算术,然后用各种各样的方式使用这项技能。例如让一名10岁的孩子画一只章鱼,他通常会确定它有8条腿。当涉及到数学的抽象和场景应用时,当前版本的AI模型往往会陷入困境。如果模型构建者对这个错误给予一定的关注,这种情况很容易改变,但还会有其他错误。机器智能不同于人类智能,这意味着机器犯的错误也会有所不同。

9.欺骗人类

有时,人类往往会在没有意识到错误的情况下被AI系统所欺骗。例如,如果AI告诉人类,英国国王亨利八世杀死了他妻子,他们通常会相信,因为他们也可能不了解这段历史。人们往往假设AI提供的答案是真实和正确的。

对于生成式AI的用户来说,最棘手的问题是知道AI系统何时出错。人们认为,机器不会像人类那样撒谎,这让它们变得更加危险。AI系统可以写出一些完全准确的数据,然后转向猜测,甚至变成谎言,而人类通常不知道发生了什么。二手车经销商或扑克玩家往往知道他们什么时候在撒谎,而且大多数人都会说出在哪里撒谎,但AI不能做到这一点。

10.无限的复制性

数字内容具有无限的复制性,这让许多围绕稀缺性建立的AI模型不堪重负。生成式AI将进一步打破这些模式,其将会让一些作家和艺术家失业,因为它还颠覆了人们遵循的许多经济规则。

当广告和内容可以不断地重新组合和更新时,广告支持的内容还会有效吗?互联网的免费部分是否会陷入“机器人点击网页广告”的世界,而所有这些都是由生成式AI生成的并且无限复制的?

无限丰富性可能会破坏数字经济。例如,如果不可替代的代币可以被复制,人们还会继续为它们付费吗?如果艺术创作如此简单,它还会受到尊重吗?它还会是独特的吗?当一切都被视为理所当然时,一切都会失去价值吗?

你怎么看?也可以不用自己回答这些问题,可以向生成式AI寻求一个有趣而奇怪的答案。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
发小杀一家三口案又爆内情!凶手父亲哭着说:家里被催债电话打爆

发小杀一家三口案又爆内情!凶手父亲哭着说:家里被催债电话打爆

八斗小先生
2025-11-01 09:21:36
为干掉越军狙击手,一战士趴水坑40小时,忽见一块石头移动一下

为干掉越军狙击手,一战士趴水坑40小时,忽见一块石头移动一下

云端小院
2025-12-25 09:12:15
南迁与南博案事件之比较观察

南迁与南博案事件之比较观察

杜兆勇律师
2025-12-25 17:19:04
全球新第一高楼已建到80层,目标直指1008米!

全球新第一高楼已建到80层,目标直指1008米!

GA环球建筑
2025-12-23 22:01:46
海南封关东南亚跳脚?洪森家族集体倒美,越南高铁偏偏不给中国建

海南封关东南亚跳脚?洪森家族集体倒美,越南高铁偏偏不给中国建

文史旺旺旺
2025-12-24 20:27:05
南博背后势力已冒头!举报人被恐吓 知情人曝新进展,一个都跑不了

南博背后势力已冒头!举报人被恐吓 知情人曝新进展,一个都跑不了

鋭娱之乐
2025-12-25 12:37:35
无法拒绝?H200价格出奇的低!

无法拒绝?H200价格出奇的低!

中国半导体论坛
2025-12-25 12:50:43
49岁赵薇广东饭局近照疯传!瘦脱相显凶相,当年小燕子彻底凉透了

49岁赵薇广东饭局近照疯传!瘦脱相显凶相,当年小燕子彻底凉透了

阿纂看事
2025-12-12 09:18:29
打破印象流?亚历山大12月罚球同期联盟仅第18

打破印象流?亚历山大12月罚球同期联盟仅第18

体坛周报
2025-12-25 18:10:19
香港不香了?洪金宝儿子全家从香港移居深圳,直言这辈子不再搬家

香港不香了?洪金宝儿子全家从香港移居深圳,直言这辈子不再搬家

八斗小先生
2025-12-25 18:17:52
陕西黑老大郑卫国去酒店吃饭,不料踢到铁板,死前连中9枪宁死不跪

陕西黑老大郑卫国去酒店吃饭,不料踢到铁板,死前连中9枪宁死不跪

青青会讲故事
2024-11-01 16:45:36
反转!镇馆之宝金兽被指掉色后续:院方正面回应,曝撤展原因!

反转!镇馆之宝金兽被指掉色后续:院方正面回应,曝撤展原因!

古希腊掌管松饼的神
2025-12-25 13:38:09
A股:今天收在3959,大家要做好准备,不出意外,明天可能这样走

A股:今天收在3959,大家要做好准备,不出意外,明天可能这样走

有范又有料
2025-12-25 15:53:15
1982 年高材生王佐良娶瘫痪的张海迪,40 年后,才知他是人间清醒

1982 年高材生王佐良娶瘫痪的张海迪,40 年后,才知他是人间清醒

墨印斋
2025-11-15 16:42:56
俄罗斯人终于拉下脸面,交给中国人来修,才是俄航母的唯一出路?

俄罗斯人终于拉下脸面,交给中国人来修,才是俄航母的唯一出路?

剑道万古似长夜
2025-12-24 16:06:15
为什么广东人离不开垃圾食品:粥

为什么广东人离不开垃圾食品:粥

食味艺文志
2025-12-20 12:17:29
泰柬停火彻底没戏了?柬方提了一个要求,泰国想都没想直接拒绝

泰柬停火彻底没戏了?柬方提了一个要求,泰国想都没想直接拒绝

云上乌托邦
2025-12-25 16:03:15
发现一个奇怪现象:喜欢把家里打扫得很干净的人,往往会有这3种命运,并非迷信

发现一个奇怪现象:喜欢把家里打扫得很干净的人,往往会有这3种命运,并非迷信

LULU生活家
2025-12-23 18:33:20
赖清德气炸了,向蓝白党团开火,黄国昌回应,郑丽文表态一针见血

赖清德气炸了,向蓝白党团开火,黄国昌回应,郑丽文表态一针见血

DS北风
2025-12-25 18:10:07
一勺猪油等于八副药?医生劝告:高血压患者吃猪油,要牢记这8点

一勺猪油等于八副药?医生劝告:高血压患者吃猪油,要牢记这8点

鬼菜生活
2025-12-25 15:33:42
2025-12-25 19:12:49
极客网 incentive-icons
极客网
科技使能新商业
2753文章数 2596关注度
往期回顾 全部

科技要闻

屠龙少年被"招安"!英伟达平安夜豪掷200亿

头条要闻

河南学校火灾班主任兼宿管被判刑 判决书披露量刑依据

头条要闻

河南学校火灾班主任兼宿管被判刑 判决书披露量刑依据

体育要闻

单赛季11冠,羽坛“安洗莹时代”真的来了

娱乐要闻

朱孝天把阿信好意当球踢!

财经要闻

时隔15月,人民币升破7,三大推手曝光

汽车要闻

速来!智界在上海西岸准备了年末潮流盛典

态度原创

旅游
艺术
教育
公开课
军事航空

旅游要闻

当秦岭雪乡遇上川渝热土 宝鸡冬季旅游携话剧《面皮》来蓉揽客

艺术要闻

缅怀 | 著名油画家宫立龙逝世,享年73岁

教育要闻

317人!深圳一区聘任新一届督学

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

泽连斯基版“和平计划”透露哪些信息

无障碍浏览 进入关怀版