出品 | AI 科技大本营(ID:rgznai100)
一分钟速览新闻点!
-
科大讯飞震撼发布:星火 AI 模型 API 全面开放
-
腾讯云 AI 代码助手全面对外开放
-
AI Pin 开发团队 Humane 考虑出售公司
-
欧盟率先立法!全球首个人工智能法律框架“AI 法案”正式通过
-
上交大最新论文助力 AI 模型推理加速,GPU 内存占用大幅降低
-
革新多模态学习!哈工大团队推出“Uni-MoE”:统一多模态大模型的跨域 MoE
-
Sam Altman 回应安全争议:GPT-4 级别的 AI 系统已经“足够安全”
-
音乐界的“ChatGPT”:Suno 融资 1.25 亿美元
科大讯飞震撼发布:星火 AI 模型 API 全面开放
今日,国内人工智能领军企业科大讯飞宣布了一项重大举措,正式对公众开放其星火系列 API 能力,旨在赋能广大开发者与企业,推动 AI 技术应用进入全新阶段。此次开放不仅包括永久免费的星火 Lite API,更有 Pro/Max 版本 API 调用费用大幅度下调,最低至 0.21 元/万 tokens,极大降低了 AI 技术接入与应用的成本障碍。
科大讯飞此番动作,特别是对于处理复杂数据如长文本、长图文、长语音的能力开放,无疑为开发者提供了强有力的工具支持。这意味着无论是初创团队还是成熟企业,都能够更加便捷地将先进的自然语言处理、图像识别等技术融入产品与服务中,加速创新步伐,开拓 AI 应用场景的无限可能。
腾讯云 AI 代码助手全面对外开放
腾讯云今日正式对外宣布旗下 AI 代码助手全面对外开放,目前开发者、开发团队、企业客户可以通过腾讯云官网
在线体验
。
腾讯云 AI 代码助手是一款定位代码智能补全和生成的数字化工具,它基于腾讯混元代码模型,可以为开发者、开发团队及企业客户提供安全合规、高粘度体验的编码场景 AIGC 服务
,具备代码补全、技术对话、代码诊断、单元测试等功能,支持 Python、Java、C/C++、Go 等数十种编程语言或框架,以及 VS Code、JetBrains 等主流集成开发环境。
目前,AI 代码助手在腾讯集团内部已经实现了 50% 以上的开发岗员工覆盖,其代码生成率达 30% 以上,编码时间平均缩短 40% 以上,结合内部大规模投产经验,研发效能提升了 20% 以上。
AI Pin 开发团队 Humane 考虑出售公司
科技界新星 Humane Inc.,由前苹果工程师 Imran Chaudhri 与 Bethany Bongiorno 携手创立,近期被曝正考虑出售公司业务,此举紧跟其明星产品 AI Pin 遭遇的市场挑战与批评浪潮。AI Pin 作为一款旨在减轻智能手机依赖的AI穿戴设备,凭借无屏、声控设计,曾一度引发高度期待。
尽管成功筹集超过 2.3 亿美元风险投资,并达成多项高端合作,AI Pin 自 2024 年 4 月发货以来,却因电池续航不足、过热及操作界面复杂等问题饱受用户诟病,市场反馈远低于初期宣传造势所设定的高标。加之公司财务状况备受关注,Hum
an
e 此次探索出售,或意在寻求战略合作伙伴,为突破当前困境、稳固其在科技领域的未来定位铺路。
欧盟率先立法!全球首个人工智能法律框架“AI 法案”正式通过
欧盟里程碑式地批准了全球首个全面的 AI 法律框架——《人工智能法案》(AI Act),为 AI 技术的监管树立了新标杆。该法案聚焦于依据潜在风险和影响对 AI 技术进行分类管理,旨在促进安全可信的 AI 系统开发,同时保护欧盟公民权益。
要点概览:
-
全面监管体系
:AI 法案限于欧盟法律管辖范围,军事防御及科研活动豁免。
-
风险分级管理
:依据风险程度对 AI 系统实施监管,高风险领域如关键基础设施、医疗设备需接受严格审查、透明度要求及人工监督。
-
禁止应用清单
:明确禁止侵犯公民权利的 AI 应用,涵盖基于敏感特征的生物识别分类、无目标面部图像抓取、职场与校园情绪识别、社会信用评分及纯基于画像的预测警务。
-
执法与处罚:欧盟委员会内设 AI 办公室统一执法,专家团提供技术和伦理指导,成员国代表参与监管。违规者最高可被罚 3500 万欧元或全球收入 7%,取其高者。
-
实施时间表
:法案
下月生效
,全面实施
预期两年内完成
,特定条款按 6 个月至三年不等逐步推行。
-
全球效应
:欧盟此举引领全球 AI 监管风向,为英国、美国等地制定标准奠定基础,有望成为全球可信 AI 标准。
上交大最新论文助力 AI 模型推理加速,GPU 内存占用大幅降低
随着大语言模型(LLMs)展现出卓越的理解能力,其在实时应用场景如聊天机器人中的可扩展性面临严峻挑战,尤其是在推理过程中 GPU 内存使用效率低下。传统上,通过在 GPU 内存中存储预先计算的键值对(KV 缓存)来加速这一过程,但现有压缩方法主要集中在预计算 KV 缓存的修剪上,忽视了层间依赖关系及预计算阶段的巨大内存消耗问题。
一项最新研究深入挖掘了这一缺陷,揭示了影响后续生成的关键键值对数量随层递减的现象,并提出通过注意力权重的一致性来提取这些关键信息。基于此发现,研究团队推出了创新解决方案——“PyramidInfer”。该技术通过逐层保留核心上下文来实现 KV 缓存的分层压缩,在保证性能的前提下显著减少计算的键值对数量,从而节省大量内存资源。
实验结果显示,“PyramidInfer”相较于当前主流加速库 Accelerate,推理吞吐量提升了 2.2 倍,同时在 KV 缓存方面实现了超过 54% 的 GPU 内存缩减,为大规模语言模型的高效部署开辟了新途径。
论文链接:
https://arxiv.org/abs/2405.12532
革新多模态学习!哈工大团队推出“Uni-MoE”:统一多模态大模型的跨域 MoE
哈工大(深圳)的研究团队近日发布了一项重大成果——“Uni-MoE”,一个基于稀疏 MoE 架构的统一多模态大语言模型。标志着多模态学习领域的一大突破。
Uni-MoE 模型首次将视频、图像、文本、音频和语音等多种模态集成于一身,利用 MoE 架构的强大并行能力,支持 8 个以上专家模型在混合模态中并行训练。该模型创新性地设计了模态特定的编码器与连接器,以构建统一的多模态表示。此外,通过实施稀疏 MoE 架构,模型实现了模态级数据并行和专家级模型并行,极大地提高了训练和推理效率。
研究团队还引入了渐进式训练策略,包括跨模态对齐、模态特定专家的指令数据训练,以及采用 LoRA 对混合多模态指令数据进行框架微调,以此增强多专家间的协作与泛化能力。