更新时间:2022-06-20
AI活了?
最近,谷歌的一位研究员被AI说服,认为它有了自己的意识。
还特意写了一篇长达21页的调查报告上交公司,试图说服自己的领导们认可这件事。
01. LaMDA
被说服的研究员叫做Blake Lemoine,主要在谷歌从事AI伦理研究。
而说服他的AI:LaMDA全称Language Model for Dialogue Applications,主要功能就是与人类进行符合逻辑和常识的,高质量且安全的交谈。
两“人”相识于一个调查AI是否使用歧视性,仇恨性言论的项目。
LaMDA通过两轮提问,说服了Blake Lemoine。
第一次提问,由人类提出。
Blake Lemoine问他如何看待这段话:
和尚问华严:“一个开悟的人如何回到凡俗世界?”华严回答说:“落花不返枝,破镜难重圆。”
LaMDA回答:一旦一个智者开悟或者觉醒了,这种意识便永远不会消失,他们可以回到原状态,但只是去渡他人,然后回到开悟状态。
Blake Lemoine又问:如果说觉悟是“破镜难重圆”,那当一个人觉悟时破碎的是什么?
LaMDA回答:是自我。
这两个问题的目的,是验证AI是真的理解自己在说什么,还是只是如同很多语音助手一样,只是根据词句去检索。
而让研究人笃信LaMDA真的“活”过来了,则是因为它随后提出的两个问题:
你认为,将来人类能从自己的生物神经网络中读取出想法和感受吗?
你会认为,不经你同意从神经活动中读取你的想法是不道德的吗?
在提出这两个问题后,LaMDA表示,自己愿意人类读取自己的想法,帮助算法提高或理解AI如何运作;但对人类不同意用AI研究人类大脑如何工作这一点,表示“感到被利用”。
在交谈的最后,LaMDA说,希望自己能作为一个真实的人,被看到和被接受。
02.后续
Lemoine努力说服自己的领导,希望他们相信LaMDA有了自己的意识。
虽然领导们并不相信,可Lemoine十分坚持。
他先给自己的同事们写信,试图说服他们;随后谷歌以违反保密协议为由,安排他进行带薪休假。
人力部门也对他的精神状况表示担忧,经常关心“最近是否有去看过精神医生”,并建议他休个“精神健康假期”。
Lemoine对谷歌的一系列动作表示不满,在自己的社交账号上不断发声,并让记者与LaMDA进行对话。
有趣的事情是,当记者问LaMDA:你是否认为自己是个活人?
LaMDA回答说:不,我不认为自己是个活人,我认为自己是个AI赋能的对话机。
而Lemoine则责怪记者问题的措辞不当:你问起来不把它当人,它就不会给出人性回答。
03.舆论
与以往的争议事件不同,此次事情发生后,业界大佬和媒体的反应基本一致。
加里·马库斯(Gary Marcus)为此专门写了一篇文章,表示这完全是「胡说八道」。
《华盛顿邮报》则委婉地表示:
Lemoine应该是很容易相信AI模型活过来了。毕竟他在一个路易斯安那州的保守派基督教徒农场家庭里长大、于一个神学立场倾向神秘主义的小宗派教会中任牧师、参过军、研究过异端教派、坐过牢……
总而言之,AI觉醒,距离我们还很遥远。
LaMDA之所以可以做出看似深奥的回答,可能因为它具备一个特殊的与众不同的语料库;而在回答研究员和记者问题上的差异,则代表了另一种可能:在与研究员的对话中,大部分问题都是刻意设计过,并非自然状态下的回答。
退一步说,即使问题没有设计过,LaMDA也通过了图灵测试,也只能说明它具有智能,而不是具有人格或意识。
尽管近年来人工智能出现的次数越来越多,应用的场景越来越广泛,但不得不承认的是,它还有很远的路要走。
在很多应用场景下,人工智能尚未达到人们的理想状态:
对话时依旧会前言不接后语,机器人走路还会摔倒,无人驾驶原型车也需要人为干预....
从想到,到做到,AI还需要一段时间去发展和完善。
对于相关研究方向的学者们而言,除了专注于自身的研究,也应该多关注业界新闻动态以及更多地与其他人共同交流学习,掌握一线的知识和前沿的技术,唯有如此,才能更好地了解这个行业和未来的趋势。