点击上方卡片关注👆在科学探索的征途中,想象于当下而言是天马行空的奇思与幻想,于未来而言则是灵感涌现的前瞻与开端。很多科学技术的进步离不开人类持续对「新」世界的追求和想象,那么你有哪些关于科学技术未来发展的「新」想象?一起来看看答主的回答吧。 你有哪些关于科学技术未来发展的「新」想象? |答主:程墨Morgan能坐牢的 AI,或者说,对坐牢有敬畏之心,所以做事会考虑法律后果的人工智能。现如今的 AI,都是没有真正人类意识,更不用说有承担责任的概念了,AI 只是根据训练数据的分布总结出一些模式,然后根据模式来产生一些看似「推理」的结果。就算有朝一日强人工智能 AGI 实现了,这种 AI 也是混不吝的玩意,只是智能更强,却不是责任心更强,原因很简单啊,AI 没法坐牢,AI 也没钱可赔。如果 AI 这么发展下去,就不是「能力越大,责任越大」,而是「能力越大,不负责任」。所以,未来科技一定要——
要让 AI 因为犯错会受到惩罚
自动驾驶再怎么牛,如果发生了事故撞死了人,也是让司机坐牢赔钱,或者 AI 厂商赔钱了事,而 AI 本身没事,fix 了导致事故的 bug,这个 AI 接着用。再比如,使用 Copilot 或者 Cursor 这样的编程辅助工具,AI 给出代码提示,还是要程序员确定是否接受,如果程序没满足功能或者出了 bug,还是要程序员负责去修复,不能当甩手掌柜给 AI,每一个老板都知道,要抓住程序员,抓 AI 没用。上面这些 AI 应用都是 AI 给建议,人类负责监督,出事负责任的是人类。如果真的要让 AI 应用更进一步,需要有一种有责任心的 AI,它未必自己做事,也许这种 AI 和使用 AI 的人类一样,只是看其他 AI 的产出然后做出接受或者否决的判断,但是这些 AI 必须要有足够判断力,而且,它们要知道如果自己监督不力判断错误,自己会受到惩罚。
怎么让 AI 感知到惩罚呢?
你看,《钢铁侠》里 JARVIS 已经达到 AGI 的程度了吧,但它(请允许我依然用「它」)的智能依然只是给钢铁侠建议,最后要钢铁侠点头同意它才会做,因为钢铁侠才有人的实体,钢铁侠才会对自己的行为负责。 后来,JARVIS 被毁,JARVIS 的「意识」被注入到实体机器人幻视的脑子。幻视有了实体,要考虑的东西就多了,至少他(到这里可以用「他」而不是「它」了)要担心自己这个实体被毁的可能。后来,幻视和旺达还产生了感情,对于责任感的判断就更加强烈。 所以,我大胆预言,科技发展必然促使制造出有责任担当的 AI,就是把 AI 注入到实体之中,让他们有一个物理存在的牵挂,让他们感受到七情六欲的纠葛,这样他们就能基于人类的伦理道德去做判断,代替人类去判断其他 AI 的产出是否应该接受。让 AI 知道自己这个实体失去自由,他们也就没有了自由。让 AI 知道自己这个实体毁灭了,他们也就 gg 了。让 AI 知道自己这个实体有了麻烦,自己关心的人和关心自己的人都有麻烦。嗯,如此这般,AI 才能成为负责任的 AI。以上纯脑洞,不要太当真(狗头)。 |答主:旧石「人工智能是否会拥有自我意识」我一直很好奇人工智能是否会进化出自我意识。基于种种几乎可以被视为偶然的巧合,于亿万斯年之前,冥古宙伊始,原始地球在具备严苛但充分的条件后,诞生了所有现代细胞生命的共同祖先——「卢卡」。插个题外话,正如刘慈欣在《三体》中借杨冬之口说道:「生命能存在的环境,各种物理参数都是很苛刻的,比如液态水,只存在于一个很窄的温度范围内;从宇宙学角度看更是这样,如果大爆炸的参数偏离亿亿分之一,就不会有重元素出现,也不会有生命了。这不是表现出明显的智慧设计迹象吗?」所以人类或者说地球生命的诞生到底是偶然还是必然呢?关于「卢卡」: