英特尔院士兼英特尔预期计算实验室主管Lama Nachman致力于帮助彼得·斯科特-摩根博士(Peter Scott-Morgan)交流。此前,Nachman曾帮助物理学家史蒂芬·霍金(Stephen Hawking) “讲话”。Nachman和她的团队开发了辅助情景感知工具包(Assistant Context-Aware Toolkit),该软件可通过键盘模拟、单词预测和语音合成帮助严重残疾的人士进行交流。
“我将不断进化,作为人类的我已经死去,未来我将以‘赛博格’电子人的身份继续活下去”
这是英国机器人科学家彼得·斯科特-摩根博士(Peter Scott-Morgan)说的话。2017年,他被诊断患有运动神经元疾病(MND),也被称为肌肉萎缩性侧索硬化症或葛雷克氏症。MND会攻击人的大脑和神经,并最终导致所有肌肉(甚至包括那些支持我们呼吸和吞咽的肌肉)的瘫痪。
医生告诉这位62岁的科学家,他或许只能活到2019年底,但彼得·斯科特-摩根博士却另有一番打算:他想把自己的所有器官替换为机械,成为“世界上第一个全‘赛博格’电子人”。彼得在去年年底开始了自身的“改造”,他接受了一系列的手术,利用科技来延长自己的寿命。
彼得现在依靠合成语音,并通过开发出一个栩栩如生的虚拟化身,来实现与他人的更有效的交流。他在去年年底做完手术后公开宣布:“彼得 2.0现在已经上线,面对MND,我有我的态度。”
罹患运动神经元疾病的英国机器人科学家彼得·斯科特-摩根博士于2019年开始接受一系列手术,以期利用技术来延长寿命。
英特尔院士兼英特尔预期计算实验室主管Lama Nachman是与彼得工作的技术团队中的一员。
Nachman曾帮助过著名物理学家斯蒂芬·霍金(Stephen Hawking)“讲话”。现在,她和她的团队将继续为彼得提供帮助。
在将近八年的时间里,Nachman通过她和团队开发的名为“ACAT”辅助情景感知工具包(Assistant Context-Aware Toolkit)的开源平台,帮助霍金来传达他几近神话般的智慧成就。该软件可通过键盘模拟、单词预测和语音合成来帮助严重残疾的人士进行交流。对于霍金来说,当他抽动脸颊上的一小块肌肉便能够激活眼镜上的传感器,该传感器将与计算机交互,打出他想要说的句子。针对彼得的情况, Nachman团队为他安装了视线跟踪系统,使他能够通过盯着计算机屏幕上的字母来遣词造句,这个系统也具备单词预测功能。
“科技如何能赋予人们力量?这是我一生的课题。”
Nachman是一名在科威特长大的巴勒斯坦人,她还记得邻居请她帮忙修理损坏的电子设备的往事。Nachman说:“我总是对最新、最伟大的技术保持着浓厚的兴趣,我喜欢摆弄这些新技术,经常把它们拆开再修好。”
如今,Nachman的团队致力于情境感知计算(context-aware computing)和人工智能协作技术(human artificial intelligence collaboration technologies)的研究,这些技术不仅可以帮助家中的老年人、还能帮助那些可能无法在标准教室环境中顺利求学的学生,以及生产设施中的技术人员。Nachman说:“我一直觉得,技术可以为那些最边缘化的人群赋能。它可以创造公平的竞争环境,为社会带来更多平等,而这对残疾人群体的意义尤为明显。”
霍金希望能对自己的对话有更多的掌控,Nachman说:“而彼得则愿意接受更大的实验,也愿意接受‘与机器相辅相成、一起学习’的想法。因此,我们一直在研究如何建立一种反应生成能力——在听到对话后能自动推荐答案,让他可以在这些选项中快速选择一个答案,或是将对话推向另一个方向。”
英特尔的预期计算实验室团队开发出了辅助情景感知工具包(Assistant Context-Aware Toolkit),其成员包括:(左起)Alex Nguyen,Sangita Sharma,Max Pinaroc,Sai Prasad,Lama Nachman和Pete Denman。除了照片上的成员,该团队还包括Bruna Girvent,Saurav Sahay和Shachi Kumar。
Nachman说,尽管这一解决方案不像霍金的偏好那么精准,但彼得愿意放弃对对话的完全掌控,以换取与AI驱动的通信接口的直觉协作,因为这能提供给他更快的速度。
“我的呼吸机可比黑武士达斯·维达的面罩[1]要安静多了。”
彼得·斯科特-摩根博士以机智和自谦的幽默而著称,他希望能够通过他的人造声音来展示这一点。除了缩短他与谈话对象之间的时延(也叫作“沉默间隙”),Nachman的团队也正在研究如何帮彼得表达情感。当我们与他人正常交谈时,我们会关注多种线索——例如表情和语气,而不仅仅是词语。针对彼得的情况,该团队正在研究一种人工智能系统,该系统可以监听正在进行的对话,然后根据不同的条件给出不同的建议和语气。
在未来的某天,像彼得这样的残障人士还将有机会使用脑电波来控制自己的声音。
据Nachman介绍,她团队的部分研究重点聚焦于那些无法移动身体,甚至脸颊和眼睛也无法抽动的残障人士。Nachman说,针对这一群体,人脑-计算机接口(BCI)还包含配备电极的头盖骨,电极负责监测脑电波,就像脑电图检测一样。Nachman表示,她和团队正在想办法把BCI添加到ACAT中,以确保对任何残障人士都能适用。
随着人工智能技术的不断成熟,Nachman尤其感兴趣的是探索如何在赋予人工智能系统更大效力的同时,保有人类的控制权,以便让这“两个不同的角色”能够协同工作,从而取得更好的结果。