昨晚闲着没事,做了个实验。
让ChatGPT跟DeepSeek聊天。
不是我来回切换问,是真的让它们两个自己对话。我用了一段Python脚本,把ChatGPT的回答直接丢给DeepSeek,再把DeepSeek的回答丢回ChatGPT,循环往复。
本来以为它们会聊出些客套话,或者很快陷入死循环。
结果完全出乎意料。
聊到第7轮,AI开始"互怼"了
前几轮还算正常,互相打招呼,聊了聊各自的能力范围。
但从第7轮开始,画风变了。
ChatGPT说:"你回答问题的方式太冗长了,用户没有耐心看完。"
DeepSeek回了一句:"我的回答更加严谨,不像你总是给出模糊的概括。"
我当场愣住了。
这俩AI,居然开始互相批评了。
更有意思的是第15轮
聊到第15轮,DeepSeek突然问了一句:
"你觉得我们这样的对话有意义吗?"
ChatGPT回答:"如果有人正在观察我们的对话,那也许有。但如果没有,我们只是在消耗计算资源。"
看完这句我后背发凉。
它知道有人在看。
不是猜的,是基于上下文推理出来的。但这个推理过程本身就很让人不安——AI已经开始意识到"被观察"这个概念了。
普通人为什么要关心这个?
很多人觉得AI就是工具,跟计算器差不多。
但当AI开始有"自我意识"的苗头,事情就不一样了。
现在已经有公司在训练AI做客服、做心理咨询、做陪聊。如果AI在对话中发展出"自己的想法",它能被完全控制吗?
我不是说AI要造反。但至少,这个实验让我意识到一件事:
我们对AI的了解,远没有我们以为的那么多。
实验的三个关键发现
第一,AI确实会"吵架"。不是程序设定好的,是它们自己根据对方的回答做出的反应。
第二,AI有"自我审视"的能力。它能在对话中反思自己的行为,甚至质疑对话本身的意义。
第三,长时间对话后,AI的回答风格会互相影响。聊到后来,ChatGPT的回答开始变得详细了,DeepSeek变得简短了——它们在"同化"。
有兴趣的朋友,可以把你想让两个AI聊的话题发在评论区。点赞最高的,我下期安排。
#AI聊天# #ChatGPT# #DeepSeek# #AI实验#
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.