专栏名称: 硅兔赛跑
这里有你想知道的关于硅谷·未来的资讯、分享与深度思考。思想,改变世界。
目录
相关文章推荐
芋道源码  ·  18.6k ... ·  20 小时前  
芋道源码  ·  java 插入式注解的打开方式! ·  20 小时前  
芋道源码  ·  深度解析 DeepSeek 的蒸馏技术 ·  2 天前  
芋道源码  ·  DeepSeek火了,会AI的人淘汰不会AI的人? ·  3 天前  
51好读  ›  专栏  ›  硅兔赛跑

三位哈佛00后联手创业,7个月拿下亿元估值

硅兔赛跑  · 公众号  ·  · 2024-09-03 10:29

主要观点总结

本文主要介绍了Haize Labs这家AI安全创企的创始人及其创业背景,包括三位哈佛应届生成立该公司,该公司关注AI大模型安全领域。Haize Labs通过打造AI产品Haizing套件,为AI大模型进行压力测试,发现安全漏洞。该公司已经在AI大模型安全领域建立了一定初步影响力,并且获得了客户的支持。

关键观点总结

关键观点1: Haize Labs成立背景及创始人介绍

Haize Labs由三位哈佛应届生成立,创始人Leonard Tang是AI安全创企的领军人物,他暂停斯坦福大学博士课程学业专注于公司发展。公司专注于AI大模型安全领域。

关键观点2: Haize Labs主要产品及其作用

Haize Labs打造的Haizing套件是该公司的主要产品,该套件主要通过攻击AI大模型进行压力测试,以发现安全漏洞。它结合了模糊测试和红队测试技术,可以较为全面地检查AI系统。

关键观点3: Haize Labs的发展情况及客户支持

Haize Labs已经获得了知名基金的参与投资,估值达到1亿美元。该公司与多家AI大厂合作,客户包括AI爱好者、政府的附属机构、模型供应商等。此外,公司推出的免费版商业版也为公司的盈利带来了保障。

关键观点4: AI大模型安全性的挑战与应对

随着AI大模型的快速发展,安全性问题日益突出。传统审查机制在AI大模型面前显得捉襟见肘。Haize Labs通过自动化攻击测试AI大模型的安全漏洞,试图建立更稳固的防线。但各大AI厂商也开始加强对AI越狱行为的防守。


正文

👆关注的人,领先不止一步👆


作者 | Xuushan,编辑 |Evan




成立不到7月,估值已过亿。

前有三位90后创办的Cohere估值冲向360亿美元,后有95后郭文景创办的Pika拿到55亿美元估值。很显然,硅谷里的AI创业潮正在影响所有人,00后Leonard Tang也是被裹挟进去的万分之一。

Leonard Tang AI安全创企 Haize Labs 的创始人兼CEO,也是今年哈佛大学本科毕业生。

他创办的Haize Labs通过一段视频展示了AI大模型安全防线的“脆弱”。只需短短几行提示,就能绕过大模型的安全限制,从而让AI大模型生成大量的色情文字、血腥图片等,甚至可以自动攻击其他网络。


目前,Haize Labs主要通过其打造的首款AI产品——自动化套件 Haizing 。该套件主要通过攻击AI大模型进行压力测试,以发现AI大模型的安全漏洞。据外媒winbuzzer报道, 明星AI创企Anthropic、Scale AI均是其客户

Haize Labs成立于2023年12月,在成立不到7个月的时间里,Haize Labs就收到至少四份投资意向书,知名基金Coatue也参与其中。知情人士透露,Haize Labs已经获得了General Catalyst领投的最新投资, 估值达到1亿美元


在短短1-2轮融资中就获得高额估值,这般融资速度和规模业内都少见。一方面可以看出,投资者对Haize Labs信心十足,另一方面也显示了AI安全赛道的潜力。

国际调研机构CB Insight报告显示,机器学习安全市场(MLSec)正快速增长。2023年AI安全创企投融资总额高达2.13亿美元,远超于2022年的7000万美元。

据硅兔赛跑不完全统计,2024年,北美已经出现了至少 5家AI安全独角兽 ,至少 39家AI安全创企 获得新融资,累计融资达 8亿美元

“目前AI大模型安全领域还是空白的创业蓝海市场。” 一位投资人士说。

随着AI攻击、AI大模型越狱事件不断发生,人们对AI失控的风险担忧日益增加。Haize Labs以AI越狱为切入口,以AI大模型安全为抓手,投身入局。


01


“每个人都对大模型越狱行为视而不见。”

Leonard Tang在接受媒体采访时提到,这也成为了他和两位朋友Richard Liu、Steve Li一起创办Haize Labs契机。

据VentureBeat报道,Leonard Tang如今暂停了斯坦福大学博士课程的第一年学业,专注于Haize的发展。Richard Liu、Steve Li则兼顾学业,成为了伯克利人工智能研究实验室的本科研究员。

Haize Labs的创始人、CEO Leonard Tang告诉VentureBeat, Haize Labs其实是自己本科阶段有关对抗性攻击和大模型稳健性研究的商业化成果。 大学期间,他主修了数学和计算机科学两大专业课程。

AI直译,图源官网

Leonard Tang第一次对LLM(大语言模型)模型越狱产生兴趣大约是在两年前,当时他尝试通过对图像分类器进行对抗性攻击,绕过Twitter的NSFW(Not Safe For Work)过滤器,该工具专门过滤一些不适宜在工作场合查看的内容。

随后,他发现AI浪潮中似乎每个人都对大模型越狱行为视而不见,于是受到启发着手专注AI可靠性和安全性的研究。

今年4月,他在Github上发表了一篇有关《如何轻松越狱Llama3》的论文。论文指出,Llama 3这类大语言模型缺乏自我反省的能力,一旦被诱导,大模型也不知道自己输出的文字是什么意思。

从其哈佛网站的个人主页来看,Leonard Tang在大学期间的经历丰富多彩。除了学业上对LLM模型广泛研究,他还拥有在多家AI大厂实习的经验,比如说在 英伟达 MagLev的ML基础工程实习生,参与到自动驾驶汽车研究。再比如说,作为 亚马逊 SDE实习生,从事大数据供应链物流工作。

另外两位联合创始人Richard Liu和Steve Li同样是AI领域的研究员。Steve Li是哈佛大学计算机科学专业的大四学生,主要专注人工智能安全、语音处理、操作系统和机器学习系统的研究。他曾在 Roblox 的用户安全团队实习,参与到报告功能和 ML分类管道的工作中。

AI直译,图源官网

背靠哈佛,冲向硅谷。他们还获得了一些顾问和天使投资者的支持,建立自己的人脉圈。这其中包括卡内基梅隆大学和哈佛大学的教授、Okta、HuggingFace、Weights and Biases、Replit 的创始人,以及谷歌、Netflix、Stripe、Anduril 等公司的人工智能和安全高管。Graham Neubig等顾问为Haize Labs 提供 LLM 评估方面的专业知识

业内的 AI越狱大神@Pliny the Prompter 也是Hazie的朋友和合作方。@Pliny the Prompter以可以迅速攻破Llama 3.1、GPT-4o的安全防线而闻名,他曾表示只需要30分钟左右的时间,就能破解世界上最强大的人工智能模型。

可以看出,Haize Labs已经在AI大模型安全领域建立了一定初步影响力,并且有了自己的关系网络,推动相关合作。


02


最开始,Haize Labs测试了当下许多知名的生成式AI程序、像是AI视频Pika、ChatGPT、图像生成器DALL-E等等。他们发现许多知名工具都会产生暴力或色情内容,甚至会指导用户生产生化武器,并允许自动进行网络攻击。

这是因为 传统审查如基于人工审查、关键词过滤等方法去检验大模型输出内容不精确

因为AI大模型通常基于深度学习和大量数据训练,其决策过程可能不透明,这种“ 黑箱”特性使得传统审查难以控制潜在的风险

同时,AI大模型能够不断学习和适应新的数据,其输出可能随着时间和输入的变化而变化。 传统审查机制往往静态和滞后,难以跟上AI大模型的动态变化。

此外,AI大模型可以处理和分析大量数据,生成内容的速度、新的表达方式和内容,都有可能会 远超于传统审查机制的预期

这也导致了无论是OpenAI审查工具Moderation API、谷歌的过滤模型Perspective API,还是Meta的保护模型Llama Guard,性能表现效果都很差。

AI直译,图源官网

Hazie对各大AI模型进行越狱测试时,发现 Anthropic旗下Claude模型 的安全性表现较好,而像Vicuna和Mistral这类没有明确执行安全微调的模型很容易进行越狱操作。

面对越狱合法性的质疑,Haize Labs表示他们更希望主动出击,才能提供防御性解决方案,预防此类事件发生。


03


俗语道,不打不相识。

有意思的是,不少曾被攻击过的机构、模型公司并没有起诉Haize,反而还成为了合作伙伴。

如今,Haize Labs的客户有AI爱好者、政府的附属机构、模型供应商等。

Haize Labs和AI大模型创企 Anthropic 达成了3万美元试点合作、与 AI创企AI21 签约了五位数的协议,并且还与 AI模型平台Hugging Face 英国人工智能安全研究所(AISI) AI工程联盟MLCommons 达成合作。

不仅如此,Haize Labs与 Scale AI 签署了 50万美元意向书 ,目标是对医疗保健和金融领域的LLM进行特定领域的压力测试,每次更新时都会重新评估模型以保持稳健性。

Haize Labs打造的Haizing套件是一套搜索和优化算法, 结合了模糊测试和红队测试技术 ,可以较为全面的检查AI系统。该产品主要在开发阶段诱导大模型出现幻觉,进行压力测试,从而更好提醒开发者安全漏洞的问题。


“只有通过严格、可扩展且自动地测试您的模型以了解其所有极端情况和弱点,客户才能开始修复这些弱点。”Leonard Tang说。

Haizing Suite升级了多种算法,使用强化学习等技术检测有害内容输入。它利用各种测试场景来发现潜在的问题点,并且通过反向定义不良行为为行动指导。

该套件拥有免费版和商业版,其中免费版需要申请, 商业版则是Hazie的主要盈利来源 。Haizing套件商业版,将为基础模型服务商和应用程序层的客户提供CI/CD haizing和运行时防御解决方案。

AI大模型的巨头们也注意到AI大模型越狱安全性问题,并先后提醒人们注意。

OpenAI也曾邀请各领域专家通过对抗性方式帮助提高模型的安全性和可靠性,也就是招募“红队队员”

微软详细介绍了一种名为“Skeleton Key”的越狱技术,用户通过诱导的方式,绕过大模型的安全机制并让模型认为,自己输出的内容是在“合法范围”之内。

Anthropic则发现随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。“现在是时候努力减小大模型越狱的潜在风险了,否则它们可能造成严重危害。”Anthropic在公告中说道。


在大模型快速发展的今天,安全一直成为人们绕不开的话题。

现阶段,AI激进派与AI保守派各执一词,以自己的准绳预测着AI大模型安全的风险值。前不久,马斯克的AI大模型 Grok 2.0正在以无所限制地生成AI内容,挑战着用户的敏感神经。 AI激进派认为如果对AI越狱行为进行全面封锁,或许会阻碍AI大模型的灵活性和响应能力。






请到「今天看啥」查看全文