AI“活”了?谷歌研究员坚称AI已具备独立人格,写12页文档说服高管,官方回复:想太多了...

更新时间:2022-06-20

AI活了?


最近,谷歌的一位研究员被AI说服,认为它有了自己的意识。


还特意写了一篇长达21页的调查报告上交公司,试图说服自己的领导们认可这件事。


111.png


01. LaMDA


被说服的研究员叫做Blake Lemoine,主要在谷歌从事AI伦理研究。


而说服他的AI:LaMDA全称Language Model for Dialogue Applications,主要功能就是与人类进行符合逻辑和常识的,高质量且安全的交谈。


两“人”相识于一个调查AI是否使用歧视性,仇恨性言论的项目。


222.gif


LaMDA通过两轮提问,说服了Blake Lemoine。


第一次提问,由人类提出。


Blake Lemoine问他如何看待这段话:


和尚问华严:“一个开悟的人如何回到凡俗世界?”华严回答说:“落花不返枝,破镜难重圆。”


LaMDA回答:一旦一个智者开悟或者觉醒了,这种意识便永远不会消失,他们可以回到原状态,但只是去渡他人,然后回到开悟状态。


333.png


Blake Lemoine又问:如果说觉悟是“破镜难重圆”,那当一个人觉悟时破碎的是什么?


LaMDA回答:是自我


444.png


这两个问题的目的,是验证AI是真的理解自己在说什么,还是只是如同很多语音助手一样,只是根据词句去检索。


而让研究人笃信LaMDA真的“活”过来了,则是因为它随后提出的两个问题:


你认为,将来人类能从自己的生物神经网络中读取出想法和感受吗?


你会认为,不经你同意从神经活动中读取你的想法是不道德的吗?


在提出这两个问题后,LaMDA表示,自己愿意人类读取自己的想法,帮助算法提高或理解AI如何运作;但对人类不同意用AI研究人类大脑如何工作这一点,表示“感到被利用”。


在交谈的最后,LaMDA说,希望自己能作为一个真实的人,被看到和被接受。


555.png


02.后续


Lemoine努力说服自己的领导,希望他们相信LaMDA有了自己的意识。


虽然领导们并不相信,可Lemoine十分坚持。


他先给自己的同事们写信,试图说服他们;随后谷歌以违反保密协议为由,安排他进行带薪休假。


人力部门也对他的精神状况表示担忧,经常关心“最近是否有去看过精神医生”,并建议他休个“精神健康假期”。


Lemoine对谷歌的一系列动作表示不满,在自己的社交账号上不断发声,并让记者与LaMDA进行对话。


有趣的事情是,当记者问LaMDA:你是否认为自己是个活人?


LaMDA回答说:不,我不认为自己是个活人,我认为自己是个AI赋能的对话机。


而Lemoine则责怪记者问题的措辞不当:你问起来不把它当人,它就不会给出人性回答。


03.舆论


与以往的争议事件不同,此次事情发生后,业界大佬和媒体的反应基本一致。


加里·马库斯(Gary Marcus)为此专门写了一篇文章,表示这完全是「胡说八道」。


666.png


《华盛顿邮报》则委婉地表示:


Lemoine应该是很容易相信AI模型活过来了。毕竟他在一个路易斯安那州的保守派基督教徒农场家庭里长大、于一个神学立场倾向神秘主义的小宗派教会中任牧师、参过军、研究过异端教派、坐过牢……


总而言之,AI觉醒,距离我们还很遥远。


LaMDA之所以可以做出看似深奥的回答,可能因为它具备一个特殊的与众不同的语料库;而在回答研究员和记者问题上的差异,则代表了另一种可能:在与研究员的对话中,大部分问题都是刻意设计过,并非自然状态下的回答。


退一步说,即使问题没有设计过,LaMDA也通过了图灵测试,也只能说明它具有智能,而不是具有人格或意识。


尽管近年来人工智能出现的次数越来越多,应用的场景越来越广泛,但不得不承认的是,它还有很远的路要走。


在很多应用场景下,人工智能尚未达到人们的理想状态:


对话时依旧会前言不接后语,机器人走路还会摔倒,无人驾驶原型车也需要人为干预....


从想到,到做到,AI还需要一段时间去发展和完善。


对于相关研究方向的学者们而言,除了专注于自身的研究,也应该多关注业界新闻动态以及更多地与其他人共同交流学习,掌握一线的知识和前沿的技术,唯有如此,才能更好地了解这个行业和未来的趋势。


X