8 条新鲜
资讯
4 个有用
工具
1 个有趣
案例
3 个鲜明
观点
阅读周报之前 ,APPSO 想先分享一首歌,希望大家在音乐的陪伴中享受阅读 🎶
无论 AI 如何强大,有些美好的回忆只有人才能创造。
✊
成本利润率 545%,
DeepSeek 首次公开
当人们以为 DeepSeek 开源周已经结束,昨日 DeepSeek 又掏出了 One More Thing ,首次披露了其模型推理系统的成本利润率:545%。
据悉,
DeepSeek 在保证服务质量的同时,实现了极高的成本效益:
硬件配置:所有服务使用 H800 GPU,保持与训练一致的 FP8/BF16 精度
动态资源调度:根据白天/夜间负载差异动态调整节点数量,最大化资源利用率
成本数据:24 小时内平均使用 226.75 个节点(每节点 8 个 H800),成本约 $87,072/天
吞吐能力:每台 H800 的 prefill 吞吐约 73.7k tokens/s,decode 吞吐约 14.8k tokens/s
官方表示,以上统计包括了网页、APP 和 API 的所有负载。
如果所有 tokens 全部按照 DeepSeek R1 的定价计算,
理论上一天的总收入为 $562,027,成本利润率 545%。
当然我们实际上没有这么多收入,因为 V3 的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。
🔗
https://mp.weixin.qq.com/s/dEEfMQgDK7y17yVjh6zblA
✊ 硅基流动和潞晨科技两家创始人公开互怼
近日,潞晨科技 CEO 尤洋表示,满血版 DeepSeek-R1 每百万 token(输出)定价 16 元,如果每日输出 1000 亿 token,需要约 4000 台搭载 H800 的机器,以目前 H800 的市价或者折旧来计算,每月仅机器成本就达 4.5 亿元,因此企业方可能面临每月 4 亿元的亏损。「用户越多,亏损越多。」
对此,尤洋发文回应 DeepSeek 公布的理论成本利润率。
随后,他也在知乎发文《坑人的硅基流动》,直指硅基流动创始人袁进辉「频繁在朋友圈阴阳他」,并称「硅基流动疑似组织水军长期黑我」。
尤洋在文中分析了硅基流动网站访问量大增的原因,认为主要得益于春节期间绑上国产芯片的宣传效果和邀请码送代金券的拉人头传播。他质疑硅基流动的代金券承诺与实际现金流之间存在巨大缺口,并对其 API 性能表示怀疑。
袁进辉迅速在朋友圈回应,为自家团队春节期间的努力辩护,强调「提供稳定服务」无可厚非,并反击称硅基流动曾被潞晨科技抄袭。
针对抄袭指控,尤洋回应称,实施抄袭的是潞晨科技前 CTO,该人士已离职并加入了袁进辉的公司。随后袁进辉转发了去年橘皮优团队对潞晨科技的指控文章,称潞晨科技「不是一次抄袭,而是多次发生」。
争论进一步扩大,
被指为抄袭总负责人的潞晨科技前 CTO 方佳瑞也加入论战,称自己是被尤洋「甩锅」,抄袭的代码与他无关,并透露自己是因质疑「诈骗式期权协议」而被赶走。
并且,袁进辉回应称,「(潞晨)CTO 没加入我们公司,之前加入的是光年之外,后来加入其他大公司了。
而且都是他自己犯错甩锅给别人,不是别人的问题。」
本人昨天情绪太冲动,说了一些让人误解 deepseek infrastructure 团队的话。deepseek infrastructure 团队技术一流并给开源社区做出巨大贡献。本人诚挚道歉,已经删除不当表述,感谢大家提醒。
据 The Information 报道,资深域名经纪人拉里·菲舍尔
正在帮雇主寻求出售备受瞩目的域名 AI.com,报价高达 1 亿美元(折合人民币 7 亿元)。
据悉,62 岁的菲舍尔已有近 30 年域名交易经验,曾促成多笔高价域名交易,包括将 Messenger.com 卖给Facebook、Skincare.com 卖给欧莱雅、Teams.com 卖给微软以及将 Chat.com 卖给 HubSpot 联合创始人达梅什·沙阿(后者随即将其转售给 OpenAI)。
「如果有人想出售顶级域名,他们会找我,」菲舍尔在纽约一家意大利餐厅接受采访时表示,「我有获取最好价格的声誉。」目前 AI.com 域名的所有者保持匿名,
仅透露当初购买该域名是因为与自己的缩写相符,而非看好 AI 的发展。
菲舍尔认为 OpenAI、微软、Google 和 Meta 等科技巨头或加密货币富豪都可能是潜在买家。值得注意的是,目前已知最高域名交易记录为 MicroStrategy 公司 2019 年以 3000 万美元出售的 Voice.com。
菲舍尔表示,他将从本周末开始接受 AI.com 的报价。
🔗 https://www.theinformation.com/articles/ai-com-is-for-sale-asking-price-100-million?rc=a4cwro
过去一周,DeepSeek 上演了「开源五连击」。
覆盖计算、通信、存储、算法与模型的协同创新,中国 AI 力量正在用开源精神,把曾经需要天价算力的技术,变得人人可用。👇🏻
DeepSeek 开源周 APPSO 系列专题链接直达:
另外,2 月 25 日,据路透社援引三位知情人士的消息称,DeepSeek 正在加速推出 1 月发布的 R1 模型升级版—DeepSeek R2。
其中两位知情人士表示,DeepSeek
原计划在 5 月初发布 R2,但现在希望尽早推出,具体时间尚未透露。
该公司表示,希望新模型在编程能力上表现更佳,并能够支持英语以外的多种语言进行推理。
🔗 https://www.reuters.com/technology/artificial-intelligence/deepseek-rushes-launch-new-ai-model-china-goes-all-2025-02-25/
百度发文宣布,旗下文心大模型 4.5 将在 3 月 16 日正式上线。
百度表示,文心大模型 4.5 不仅在基础模型能力上有大幅提升,且具备原生多模态、深度思考等能力。
本月早些时候,百度曾发文称,文心大模型 4.5 将在今年 6 月 30 日起正式开源;同时其还宣布,文心一言将于 4 月 1 日 0 时起,全面免费,所有 PC 端和 APP 端用户均可体验文心系列最新模型。
此外,百度 CEO 李彦宏也在近期的一次财报电话会议中透露,文心大模型 4.5 将会是百度最好的模型,并且其也转变了「模型发展应该保持闭源」的态度,表示从 DeepSeek 的成功中知道了开源的优势。
🔗 https://mp.weixin.qq.com/s/fErfpPI5opivfBQpj-151Q
♟️ 围棋手因比赛使用 AI 作弊被撤销段位并禁赛
近日,据中国围棋协会发布通报显示,2024 年 12 月 15 日,职业棋手秦思玥在参加全国围棋锦标赛(个人)女子组第九轮比赛时,被裁判赛中例行抽检发现携带手机,并在手机上使用人工智能程序。
通报称,经查看当日赛场视频,听取现场裁判、棋手、工作人员证言,证实秦思玥当天凌晨进入赛场藏匿手机与在比赛过程中作弊,藐视赛场纪律,被询问有关事实时存在隐瞒行为,情节严重。
中国围棋协会表示,根据《中国围棋协会纪律准则和处罚规定》等相关规定,综合考虑违规事实情节及本人态度,经协会纪律与道德工作委员会研究决定,
对秦思玥处以撤销职业段位、取消 2024 年全
国围棋锦标赛(个人)成绩的处罚,禁止其参加中国围棋协会及会员单位组织或授权组织的所有围棋赛事和活动 8 年。
据悉,秦思玥出生于 2006 年,目前 19 周岁,其在 2020 年通过全国围棋定段赛晋级为职业围棋初段,此后在 2024 年升级为职业围棋二段。
🔗 https://mp.weixin.qq.com/s/a0T8--8q6z89LZGiwZtzhA
📹 OpenAI 计划将 Sora 整合进 ChatGPT
据 TechCrunch 报道,OpenAI 计划将 Sora 直接整合到 ChatGPT 中。
目前,Sora 仅通过单独网页提供服务。Sora 产品负责人 Rohan Sahai 表示,OpenAI 正积极研究如何在 ChatGPT 中引入 Sora功 能,将两款产品结合起来,但未提供具体时间表。
他指出,最终集成到 ChatGPT 中的 Sora 版本可能不会提供与独立网页应用相同的编辑和拼接功能。
此外,OpenAI 还在扩展 Sora 的功能范围。自推出以来,公司已经增强了 Sora 的网络体验,创建了更多方式让用户浏览社区生成的视频。Sahai 表示,OpenAI 有意为 Sora 开发独立的移动应用,目前团队正在积极招募移动开发工程师。
值得注意的是,OpenAI 还计划将 Sora 的生成能力扩展到图像领域。
虽然 ChatGPT 已经支持由 DALL-E 3 模型提供的图像生成功能,但 Sora 驱动的图像生成器有望创建更加逼真的照片。
另外,Sahai 透露 OpenAI 正在开发新版本的 Sora Turbo。
🔗 https://techcrunch.com/2025/02/28/openai-plans-to-bring-soras-video-generator-to-chatgpt/
💵 2000 亿美元豪赌!Meta 正在商讨建设 AI 数据中心
据 The Information 报道,
Meta 正在筹划建造一座 AI 数据中心园区,预计投资金额可能超过 2000 亿美元,这将成为该公司迄今为止最大规模的项目,也将跻身全球最大数据中心之列。
这座尚未公开报道的新数据中心园区,其规模将是扎克伯格上个月提到的路易斯安那州 AI 数据中心的数倍之巨。虽然 Meta 曾表示路易斯安那州项目将耗资 100 亿美元,但具体包含哪些组件尚不明确。
据了解,Meta 高管已向数据中心开发商表示,公司计划在路易斯安那州、怀俄明州或德克萨斯州等地建设这一大型园区。本月,高级管理人员已前往考察潜在场地。
目前尚不清楚 Meta 是自行建设设施,还是与外部开发商签约,或是与 Oracle 或 CoreWeave 等云计算提供商合作建设和运营。Meta 既使用自己的数据中心,也从亚马逊 AWS 和 Oracle 等云提供商租用 AI 服务器。
一位参与谈判的人士透露,如果扎克伯格在未来改变主意,Meta 不一定需要全额承担建设成本。大型数据中心交易通常分阶段进行,所以 Meta 的协议可能给予其独家权利,但并不强制继续扩大项目规模。
Meta 可能需要签署长期数据中心租约以确保园区使用权,但不需要承诺购买特定数量的 AI 芯片,而芯片采购是此类项目中最昂贵的部分。
尽管投入巨大,Meta 内部对于需要多少 AI 芯片来训练和运行其 AI 尚未明确。
Instagram 负责人 Adam Mosseri 在本月给员工的一份备忘录中表示:「我们可能需要比原先想象的多得多或少得多的计算能力来构建前沿模型。」
🔗 https://www.theinformation.com/articles/meta-discusses-200-billion-ai-data-center-project?rc=a4cwro
🤯 OpenAI 最大最贵的模型,GPT-4.5 发布
API 价格方面,因 GPT-4.5 计算量极大,成本高昂,相较于 GPT-4o 价格有了较高上涨。
GPT-4.5 支持联网搜索,并能够处理文件和图片上传,还可以使用 Canvas 来进行写作和编程。不过,目前 GPT-4.5 还不支持多模态功能,如语音模式、视频和屏幕共享。GPT-4.5 主要通过「无监督学习」(就是自己从大量数据中学习)变得更聪明,而不是像 OpenAI o1 或者 DeepSeek R1 那样专注于推理能力。
简单说,GPT-4.5 知道的更多,而 o1 系列更会思考。
API 价格方面,因 GPT-4.5 计算量极大,成本高昂,价格涨到了75 美元 / 百万 tokens,是 GPT-4o 的 30 倍,更是 DeepSeek 的 280 倍。
Sam Altman 提到,GPT-4.5 不是推理型模型,不会在基准测试中碾压其他模型。在目前曝出的实测中,性能的提升远没有价格大。
ChatGPT Pro 用户已经可以用上 GPT-4.5(研究预览版)了。下周,将会逐步开放给 Plus 和 Team 用户;再下一周则是 Enterprise 和 Edu 用户。
🔗 https://x.com/OpenAI/status/1895219591070261266
🏆 Kimi 新模型 k1.6 曝光,代码生成能力超越 o3-mini
月之暗面旗下 Kimi 的最新模型 k1.6 曝光。据全球动态基准测试平台 LiveCodeBench 显示,k1.6 登上测试榜榜首。
具体显示,k1.6-high 在多项代码生成基准测试中超越 OpenAI o3-mini、o1 和通义 QwQ-Max 等多款模型。成绩公布后,
月之暗面研究员 Flood Sung 在其个人社交账号表示,榜单中的 k1.6 是一个基于 k1.5 持续训练代码能力的特定版本,目前 k1.6 还在不断训练并提升性能。
此外,月之暗面创始人张予彤也在朋友圈表示,k1.6 还没有发布,但看到 LiveCodeBench 的成绩感到开心,期待智能模型的持续进化。
🔗 https://x.com/test\_tm7873/status/1895039852762013996
微软近日推出了两款全新的小型语言模型(SLM)—— Phi-4-multimodal 和 Phi-4-mini。
Phi-4-multimodal 是一个拥有 56 亿参数的多模态模型,其最大特点是采用了「混合 LoRAs 技术」(Low-Rank Adaptations,低秩适应),能够同时处理语音、视觉和文本信息。
用户可以在智能手机、汽车等本地设备上运行该模型,或者开发轻量级企业应用,如多语言金融服务应用等。
另一款新模型 Phi-4-mini 拥有 38 亿参数,基于密集解码器架构,支持处理长达 12.8 万个标记的序列。
微软表示,尽管体积小巧,该模型在文本任务方面的表现依然优于许多更大的模型,包括推理、数学、编程、指令跟随和函数调用等能力。
在基准测试方面,Phi-4-multimodal 在语音问答任务上与 Gemini-2.0-Flash 和 GPT-4o-realtime-preview 相比存在一定差距。
不过,在数学和科学推理、光学字符识别(OCR)以及视觉科学推理方面,该模型的表现已超过了包括 Gemini-2.0-Flash Lite 和 Claude-3.5-Sonnet 在内的多款大模型。
🔗 https://azure.microsoft.com/en-us/blog/empowering-innovation-the-next-generation-of-the-phi-family/
据了解,Claude 3.7 Sonnet 的独特之处在于它将实时回答和深度思考的能力整合在同一个模型中。用户可以自主选择「推理」功能,让 AI 进行短时间或长时间的深度思考。
Claude 3.7 Sonnet 已经向所有用户和开发者推出,但只有付费购买 Anthropic 高级服务的用户才能获得完整的推理功能。免费用户则可使用标准版 Claude 3.7 Sonnet。
在定价方面,Claude 3.7 Sonnet 每百万输入 token 收费 3 美元(约相当于处理 75 万个单词,比《指环王》全系列还多),每百万输出令牌收费 15 美元。
据《华尔街日报》最新报道,Anthropic 即将敲定一轮高达 35 亿美元的融资,估值将达到 615 亿美元。
多家知名投资机构正在洽谈参与此轮融资,包括 Lightspeed Venture Partners、General Catalyst、Bessemer Venture Partners 以及来自阿布扎比的投资公司 MGX。
🔗 https://techcrunch.com/2025/02/24/anthropic-launches-a-new-ai-model-that-thinks-as-long-as-you-want/
随着 AI 技术的普及,越来越多的 AI 开始执行拨打和接听电话的任务。
在这种情况下,AI 之间不可避免地需要通过电话进行交流。然而,传统的人类语言通信方式在 AI 之间的对话中存在明显缺陷,比如时间效率低下、语音生成的计算成本高昂,且容易出错。
针对这些问题,由软件工程师 Boris Starkov 和 Anton Pidkuiko 开发的 Gibberlink 提出了一种新思路——让 AI 从语音级别转移到声音级别协议来相互通信。
虽然人类可以听到两个 AI 开始使用人类听不懂的「语言」进行沟通,但没有专门设备或软件则无法理解其中包含的信息。
Gibberlink 的核心工作原理建立在一套智能识别机制上。
具体来说,当 AI 与人类交谈时,它会坚持使用常规语音。当检测到另一方也是 AI 代理时,会主动建议切换到声音级协议,如果对方接受这一建议,双方将切换到基于 GGWave 库的声音级协议进行通信。
整个协议设计有标准化消息格式和严格的数据交换结构,以最大程度降低误解风险和潜在安全漏洞。
Gibberlink 带来的好处有很多,比如通过避免语音生成环节,Gibberlink 减少了 90% 以上的计算成本,这对于大规模 AI 部署具有重要意义,以及相同信息的传递时间最多可缩短 80 %,大大加快 AI 间的交互速度。
🔗 https://github.com/PennyroyalTea/gibberlink