生成式人工智能依赖于大量的训练材料,这些材料主要是由人类随意从互联网上抓取的内容组成的。
科学家们仍在努力更好地理解,当这些人工智能模型耗尽这些内容,不得不依赖人工智能生成的合成数据时,会发生什么,从而形成一个潜在的危险循环。研究发现,人工智能模型开始蚕食人工智能生成的数据,这最终会使它们的神经网络变得一团糟。随着人工智能对回收内容的迭代,它开始吐出越来越乏味、经常是混乱的输出。
![]()
有一个问题是,随着人工智能系统无限地消化和产生人工智能内容,人类文化将会发生什么变化。人工智能的高管们承诺,他们的模型有足够的能力取代创造性的工作,那么未来的模型将接受什么培训呢?
在本月发表在《模式》杂志上的一项富有洞察力的新研究中,一个国际研究小组发现,当一个文本到图像的生成器与一个图像到文本的系统连接起来,并被指示一遍又一遍地迭代时,最终会集中在“非常通用的图像”上,他们称之为“视觉电梯音乐”。
他们写道:“这一发现表明,即使没有额外的训练,自主的人工智能反馈回路也会自然地倾向于共同的吸引因素。”“人类与人工智能的合作,而不是完全自主的创造,可能是在越来越多的机器生成的创意领域保持多样性和惊喜的关键。”
罗格斯大学(Rutgers University)计算机科学教授艾哈迈德·埃尔加马尔(Ahmed Elgammal)在为the Conversation撰写的一篇关于这项工作的文章中写道,这是另一个证据,表明生成式人工智能可能已经在引发一种“文化停滞”状态。
他认为,最近的研究表明,“在自主和重复使用时,生成式人工智能系统本身倾向于同质化。”“他们甚至认为,人工智能系统目前默认以这种方式运行。”
埃尔加马尔补充说:“在没有经过重新训练的情况下,这些图片就变成了一套平淡无奇的库存图片。”没有新增数据。什么也没学到。坍塌完全是由于重复使用造成的。”
考虑到人工智能的浪潮淹没了互联网上的人造内容,这是一个特别令人担忧的困境。虽然人工智能的支持者认为,人类将永远是“创造性决策的最终仲裁者”,但根据埃尔加马尔的说法,算法已经开始将人工智能生成的内容放在首位,这种同质化可能会极大地阻碍创造力。
研究人员写道:“风险不仅在于未来的模型可能会在人工智能生成的内容上进行训练,而且人工智能媒介文化已经被过滤掉了,倾向于熟悉的、可描述的和传统的东西。”
从摄影到戏剧,现有的创意渠道将在多大程度上受到生成式人工智能的影响,或者它们是否能和平共处,还有待观察。
尽管如此,这是一个需要解决的令人担忧的趋势。埃尔加马尔认为,为了阻止这种文化停滞的过程,需要鼓励或激励人工智能模型“偏离规范”。
他总结道:“如果生成式人工智能是为了丰富而不是扁平化文化,我认为系统的设计方式需要抵制向统计平均输出的趋同。”“这项研究明确了一件事:如果没有这些干预,生成式人工智能将继续向平庸和平庸的内容漂移。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.