到底是不是“OpenAI叛军”,行动是最好的说明。
在公司属性上,阿莫迪兄妹选择将Anthropic设立为公益型公司(PBC,Public Benefit Corporation),可以同时追求社会责任和盈利。如今OpenAI寻求转型,也是想成为PBC。
从一开始,“安全”成了Anthropic的高亮关键词。Anthropic的前身甚至被命名为AI Safety Lab(AI安全实验室)。在2021年,人工智能危险论并非主流。
起初,Anthropic也考虑到用其他公司的AI模型来进行安全研究,但很快就放弃了这个想法,决定构建自己的模型。模型被命名为Claude,有三个核心目标:有用(helpful)、无害(harmless)、诚实(honest)。
他们甚至引入了“宪法式人工智能(Constitutional A.I.)”的概念,给模型提供一份书面的原则清单(“宪法”),并要求它尽可能遵守。这些清单中包括联合国《世界人权宣言》、苹果的服务条款等等。然后,他们使用第二个模型,评估第一个模型的行为是否符合“宪法”,并在必要时进行纠正。
说白了,就是让人工智能自我监督。
在创立之初,Anthropic就被外界当做“OpenAI叛军”,并在A轮融资中吸引了1.24亿美元,随后又有5.8亿美元融资到账。但相比于OpenAI,这家公司依然显得非常小和“寒酸”(只有寥寥员工和很少的钱)。
到了2022年夏天,阿莫迪兄妹迎来了第一个艰难时刻。
那就是:Anthropic已经完成了对Claude的训练,整个团队都对它的表现赞叹不已。发布Claude,对成立仅仅一年的Anthropic来说一定会带来更多名利。但是,他们同时也担心将强大的Claude直接发布会不会有安全风险。
最终,阿莫迪兄妹决定,继续进行内部安全测试。这一压就是数月。
而在另外一边,OpenAI在11月底发布了ChatGPT,这款软件如巨石入水,掀起惊天骇浪。从后续多家媒体报道的“内幕故事”来看,OpenAI当时是在很“拿不准”的情况下推出了ChatGPT。
也就是说,奥特曼和阿莫迪兄妹面临着同样的难题,但是做出了完全不同的选择。
至少从对外的表态来看,阿莫迪兄妹不说后悔。达里奥在《时代》杂志的采访中说,他想避免引发一场建造更大、也许更危险的人工智能系统的竞赛:“我认为这是正确的做法。”
他紧接着又补充:“但这(正确与否)不是完全明确的。”这种不确定性很好理解,毕竟竞赛无论如何都开始了,而阿莫迪的决定可能会让Anthropic损失数十亿美元。
不论如何,这个决定最终也让Anthropic在很长一段时间里获得了赞誉。尤其是当ChatGPT引发了监管机构和大众对安全问题的担忧时。在2023年面对华盛顿的参议院,达里奥作证时说,他认为强大到足以“造成大规模破坏”并改变全球力量平衡的AI系统可能最早在2025年出现。
彼时这样说的人很多,但始终握着“安全牌”、被视为“OpenAI叛军”的阿莫迪兄妹自然显得可信度更高。
在Claude最终发布并迭代的过程中,Anthropic更加坐实了“安全牌”。《纽约时报》的记者凯文·罗斯(Kevin Roose)因为撰写了一篇文章,记录其与微软嵌入ChatGPT的新必应聊天机器人之间的“冲突”,而被Anthropic邀请到了总部。
当时是2023年的夏天,距离Claude 2发布还有几周,罗斯感受到的仍旧是紧张和焦虑,而非振奋和期待。
“我最担心的是,模型会不会做出我们未曾预料到的可怕行为?”达里奥说。
甚至这种情绪并非高层特有,整个公司的所有工程师似乎都更有兴趣谈论“安全风险”,而非技术能力。一位员工在吃午饭的时候告诉罗斯,未来十年内,失控的人工智能毁灭人类的概率高达20%。
罗斯形容,这就像你走进了一家备受赞誉的餐厅,准备饕餮一番,结果发现所有店员都在和你聊食物中毒。
用首席科学家卡普兰的说法来解释,就是这种悲观情绪不是刻意营造的,而是Anthropic本来就吸引这种“深思熟虑的”“对这些长期风险持怀疑态度”的人。
这种情绪也最终传导到了Claude产品本身。这种安全导向的训练方法,也使Claude成为了一款格外谨小慎微的聊天机器人。它被评论家调侃为“AI末日轮宣传家”“过于无趣爱说教”。
但是,Anthropic的“安全牌”和Claude的谨小慎微,却让这家公司愈发吸引企业客户和投资者青睐。吸引企业客户很好理解,毕竟to B用户和to C用户不同,前者要的正是安全和可靠。
在初代Claude发布之后,Anthropic融资爆发,先是4.5亿美元C轮融资,其中包括投资方谷歌;后亚马逊也出手,其融资金额节节攀升。到2023年10月,Anthropic总融资额超过了76亿美元。