出品 | AI 科技大本营(ID:rgznai100)
一分钟速览新闻点!
-
古尔曼:苹果正在考虑将 AI 融入 Vision Pro,未来苹果智能或将收费
-
WhatsApp 即将推出 Meta AI 模型选择功能,Llama-405B 模型即将上线
-
腾讯混元 DiT 模型更新,同时发布 Hunyuan-Captioner
-
Axelera 融资 6800 万美元,挑战 Nvidia 边缘 AI 芯片市场
-
荣耀宣布与字节豆包大模型达成合作据火山引擎
-
Microsoft AI CEO 称在线内容是训练 AI 模型的免费食物
-
百度智能代码助手文心快码发布:支持 100+ 主流编程语言及多种 IDE
-
GPTCache 开源智能缓存技术,已获 6.8K Star
-
谷歌联手行业巨头提供 AI 高质量实时数据,增强企业信任度
-
全球首款 GPT-4o 集成智能眼镜 Solos AirGo 3 发布
古尔曼:苹果正在考虑将 AI 融入 Vision Pro,未来苹果智能或将收费
彭博社知名的苹果爆料人马克·古尔曼(Mark Gurman)在最新文章中透露,Apple Intelligence 即将登陆 Vision Pro。当 Apple Intelligence 本月早些时候首次亮相时,当时只承诺会将 AI 用于 Mac、iPhone 和 iPad。与此同时,Mac 用户需要拥有搭载苹果自家芯片的型号才能利用新的 AI 功能。公司围绕 M4 芯片在未来 12 个月内对 Mac 进行的改造很可能会关注新型号运行 Apple Intelligence 的效果。
古尔曼还透露了一则重要消息:尽管 Apple Intelligence 最初将是免费的,但长期计划是通过这些功能赚钱。公司最终可能会推出类似于“Apple Intelligence+”的东西——用户可以为额外功能支付月费,就像 iCloud 一样。除此之外,苹果将从其引入的每个 AI 合作伙伴的订阅收入中获得分成。
WhatsApp 即将推出 Meta AI 模型选择功能,Llama-405B 模型即将上线
据传,WhatsApp 正在开发一项新功能,允许用户选择 Meta AI Llama 模型。这一功能预计将在未来的更新中推出。目前,WhatsApp beta for Android 2.24.14.7 版本已经出现了 405B 模型的选择界面。据悉,Llama 3-405B 模型将比现有的 70B 模型更快,更适合处理更复杂的提示。然而,用户每周只能预览有限数量的 405B 模型提示,一旦达到限制,用户可以继续使用 70B 模型进行对话。
腾讯发布最新
混元
DiT 模型和 Hunyuan-Captioner
腾讯最新开源的混元-DiT 图像生成模型 1.2 版本已正式上线 HuggingFace 页面。与此同时,公司还推出了全新的 Hunyuan-Captioner 模型,该模型能够从多个维度生成高质量的图像描述,涵盖物体描述、关系解析、背景信息以及图像风格等多个方面。
DiT v1.2:
https://huggingface.co/Tencent-Hunyuan/HunyuanDiT-v1.2
Hunyuan-Captioner:
https://huggingface.co/Tencent-Hunyuan/HunyuanCaptioner
Axelera 融资 6800 万美元,挑战 Nvidia 边缘 AI 芯片市场
荷兰创业公司 Axelera AI 宣布已完成 6800 万美元的 B 轮融资,旨在开发基于 AIPU(人工智能处理单元)的解决方案,用于在边缘设备上运行计算机视觉推理工作负载。这笔投资标志着欧洲无晶圆厂半导体领域最大的一笔 B 轮融资,由 Invest-NL Deep Tech Fund、欧洲创新委员会基金、创新产业战略伙伴基金和三星催化剂基金等主要机构投资者领投。Axelera 计划利用这笔资金将其现有 AIPU 解决方案推向新的地理区域和市场,并添加新产品以满足下一代 AI 工作负载的计算需求,包括多模态 LLMs。
荣耀宣布与字节豆包大模型达成合作据火山引擎
官方消息,荣耀与字节豆包大模型现已达成合作,豆包大模型家族中的语音识别、角色扮演等多款模型将助力荣耀构建移动办公领域垂直模型落地应用的基础能力。据介绍,豆包大模型将为荣耀手机用户提供基于文档理解的互动问答、按照指定格式一键生成会议纪要,以及包括工作总结、演讲稿、会议议程、广告文案、现代诗等在内的多类型、多体裁、多风格智能辅助创作。
具体来看,以撰写企业全员活动邀请函这一场景为例,豆包大模型可以提供活动信息、撰写要求,并生成邀请函框架及具体内容,用户也可以通过自然语言对话来对成文进行后续的多次修改。
Microsoft AI CEO 称在线内容是训练 AI 模型的免费食物
过去几个月,版权所有者对 OpenAI 及其主要投资者微软提起了多起侵权诉讼。微软 AI CEO Mustafa Suleyman 接受采访时对此表示,机器学习公司能抓取大部分在线内容,用其训练神经网络,因为这些内容本质上是“免费软件”。他说,对于已在开放 Web 上的内容,自 1990 年代以来其社会契约一直是合理使用(fair use),任何人都能拷贝,重新创作,再制作。它们就是免费软件。OpenAI 等 AI 公司正与主要版权所有者签署内容协议。换句话说,对于将内容发布在网络上的普通人,除非他们有能挑战微软或将微软拉到谈判桌上的律师,那么他们创作的内容就是“免费软件”。Suleyman 预测的未来是知识生产成本将降至零边际成本,信息经济学将发生根本性改变。
百度智能代码助手文心快码发布:支持 100+ 主流编程语言及多种 IDE
据百度官方消息,百度今天在 WAVE SUMMIT 深度学习开发者大会上宣布,推出智能代码助手文心快码。文心快码(Baidu Comate)基于文心大模型,结合百度积累多年的编程现场大数据和外部优秀开源数据,拥有代码智能、场景丰富、创造价值、广泛应用等多重产品优势,可实现“帮你想、帮你写、帮你改”的场景应用形态。百度表示,该公司内部上万工程师中,目前已经有 80% 的人都开始使用文心快码,代码采用率达 44%。
GPTCache 开源智能缓存技术,已获 6.8K Star
专为大语言模型打造的智能缓存技术——GPTCache 已开源并发布相关论文,目前获得 6.8K Star 关注。该技术可降低 10 倍成本,响应速度提高 100 倍。GPTCache 与 Langchain、LlamaIndex 等项目整合,兼容主流数据库如 SQLite、PostgreSQL、MySQL 等。GPTCache 旨在构建一个语义缓存系统,存储 LLM 的响应结果,以解决 API 调用费用高昂和响应速度慢的问题。当 AI 应用集成 GPTCache 后,用户查询将首先发送给 GPTCache,如果命中缓存,则直接返回结果,无需再次查询 LLM,从而节省成本并加快响应速度。例如,与 OpenAI 提供的 GPT 服务集成,缓存命中时响应速度可提升 2-10 倍。此外,网络波动不会影响 GPTCache 的响应时间,使其具有高稳定性。
开源链接: