![]()
前OpenAI联创Andrej Karpathy最近干了件反差极大的事。这位特斯拉前AI总监、圈内公认的技术派,突然在YouTube上传了一条面向普通观众的1小时入门视频,主题是大语言模型。
视频发布于去年11月,但直到最近才被中文社区大规模讨论。Karpathy在推文里只写了一句:「New YouTube video: 1hr general-audience introduction to Large Language Models」。没有预热,没有标题党,连封面都是默认样式。
这种低调和他此前的公众形象形成微妙对比。Karpathy之前的内容要么深入CUDA优化,要么拆解GPT-2的C语言实现,观众默认需要一定的编程基础。这次他却从token是什么开始讲起,用「预测下一个词」这个类比贯穿全程。
![]()
评论区成了大型真香现场。有用户留言说终于敢给非技术同事转发Karpathy的内容了。视频目前播放量超过80万,在他个人频道里属于中上水平,但考虑到这是零营销冷启动,数据已经相当扎实。
一个值得注意的细节是:Karpathy在视频里提到,他做这个内容的部分动机,是发现身边聪明但非技术背景的朋友,对LLM的理解仍停留在「魔法」层面。换句话说,顶级研究者也开始操心科普的断层问题。
视频结尾,他放了一段和GPT-4的对话截图。用户问它「什么是LLM」,AI的回答被Karpathy标红批注了五处逻辑漏洞——用AI的失误来验证人类讲解的必要性,这个收尾很他的风格。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.