人类的智能和智能交互,发展到现在,已经形成了一个范式。而人工智能的研究,很多也是在这个范式基础上进行的。
人脑 -> 脑电波 -> 传播媒介(语音,图像,文字)-> 脑电波 -> 人脑
首先,人的思考和意识在脑海中产生,形成脑电波,然后通过传播媒介表达出来,要么是嘴用语音表达出来,要么是手写成文字或者画成图像。再之后,其他的人可以听到语音,完成语音识别;或是看到文字或图像,完成物体和场景的识别。最后,再次形成脑电波,在其他人的脑中产生思考和意识。这样,完成了人类的智能和智能交互。
在这个过程中,使用了语音,文字和图像,等这些传播媒介来记录人类的智能,完成智能的交互。但其实,最后的智能和交互都是由脑电波来完成的。传播媒介,看起来是多余的,不是吗?
再看人类和计算机(电脑)的交互,和现在的人工智能研究,同样在模仿这种范式。人类的语音,文字和图像被记录下来,然后,交给电脑去,通过机器学习,特别是深度学习,来完成语音的识别,文字的理解,和图像识别。再然后,通过电脑的电流,完成计算和推理。这样,电脑就像另外一个人一样,才能理解人类的智能和完成交互。反过来,电脑也是通过电流的运算,然后生成语音,文字和图像,让人类听了和看了之后,能够理解电脑想要表达什么和如何解决问题的。这种中间的传播媒介,是否也是多余的?
现实世界中,有没有发现,电脑和电脑之间的交互,完全是通过网络,有线的时候通过电流,无线的时候通过电磁波,完成智能和智能交互。而这种电脑间的沟通和交互,完全不用通过中间的媒介,语音,文字,和图片。这种交互方式,比起人类的智能交互方式,效率更高,正确性更高。因为,每做一次转换,都可能引起效率的折扣,正确性的损失。
电脑 -> 电流 -> 电流 -> 电脑
既然,智能和智能的交互,都是源起和终结于中控中心,也就是脑,不管是人脑,还是电脑。然后,表现和传播的形式,都是电波。最后,这些脑连成网,直接通过在网上来传播代表智能的电波,是不是最终会成为智能和智能交互的未来的新的范式?暂且,称之为“脑电网”。原来的语音识别,图像识别,文字识别和理解,采用的模式识别和深度学习技术,就可以直接在电波的层次工作,而不是中间传播媒介的信号之上。
“脑电网”,这方面的研究,人类正在研究而且取得了一些成就。
美国军方在位于马里兰州阿伯丁的实验室里,做了如下试验:让士兵观看五种图片,并自行选取一种而记住。然后将士兵的大脑和脑电图( EEG )连接起来,将这五种图片以每个一秒的速度进行播放,根据士兵脑电波对图片的反应情况进行分析,得知士兵所选取的是哪一张图像,并且准确率非常的高。这样,直接在脑电波的基础上完成了识别和交互。
Elon Musk 一直以来都希望开发出一种设备,将人类大脑思想与计算机进行连接。他认为,例如键盘、触摸屏以及语音助手等产品,没有办法及时将人类大脑中的思想表达出来,人脑思想与计算机会出现延时效应。因此,他成立了「Neuralink」这个新公司,希望通过脑机接口可以解决这项难题。
MIT 计算机科学人工智能实验室与波士顿大学合作研发了一套脑机交互系统,通过一个布满电线的帽子,人类大脑的脑信号可以传播到一台工业协作机器人上。机器人在接受到人类脑信号之后,就可以完成相应操作。其实,反过来,也可以把机器人换成人脑直接接收机器人或是其他人脑信号。
而波士顿的一家初创公司 Neurable,则希望通过读取人类的脑电波来判断意图。Neurable 可以利用干电极来记录大脑活动,同时还会使用相应软件进行分析。
有理由和实验相信,这种“脑电网”的方式,会是未来更高效更有前景的人工智能范式。