专栏名称: 计算机视觉深度学习和自动驾驶
讨论计算机视觉、深度学习和自动驾驶的技术发展和挑战
目录
相关文章推荐
十点读书  ·  全国最挤的地方,年轻人不求姻缘,只求财 ·  3 天前  
书单来了  ·  作为公司的首席卫生官,我主要打扫! ·  2 天前  
新京报书评周刊  ·  在“卷”与“躺”之间,生活的世界还有哪些参考 ... ·  4 天前  
山西省邮政管理局  ·  雪花纷飞,寒意未减!未来三天这些地方雨雪持续…… ·  2 天前  
51好读  ›  专栏  ›  计算机视觉深度学习和自动驾驶

免费!GPT-4o究竟是什么?

计算机视觉深度学习和自动驾驶  · 公众号  ·  · 2024-05-17 04:36

正文

👆点击上方 蓝字 关注我们

点击下方名片,可立即体验中文版ChatGPT!

使用方法在文末哦~


关注“海川AI”,即可体验中文版ChatGPT!

为了防止丢失, 别忘了点赞收藏哦~


距离GPT-4的发布已满一年, OpenAI在万众期待中于当地时间5月13日上午10点举行了春季发布会。


此次发布会并未如外界所传推出搜索引擎或GPT-5,而是带来了GPT-4的迭代版本—— GPT-4o 用户在接下来的几周内将陆续自动更新至GPT-4o。


GPT-4o,作为最新一代的旗舰模型,它不仅运行速度比上一代提升了两倍,实现了无延迟的实时对话体验, 用户无需注册,即可畅享所有功能,且全部免费。


ChatGPT现已推出桌面版本,为用户带来更为轻量化的使用体验。这一革新使其能够无缝融入您的任何工作流程,让您告别繁琐的网页操作,轻松高效地完成各项任务。

据OpenAI的首席技术官 米拉·穆拉蒂 (Mira Murati)所言,这也是他们在提升产品易用性方面迈出的重要一步。



“O”是包罗万象的O


米拉·穆拉蒂在发布会开场便为新产品定下了基调, 她表示OpenAI的目标是进一步降低人们使用AI的障碍,让每个人都能在工作、学习、创造中便捷地使用AI工具。


米拉·穆拉蒂主持了整场发布会,萨姆·奥尔特曼没有露面|@OpenAI


为此,OpenAI采取了三项措施:推出更强大的GPT-4o模型,更新用户界面以提升体验,然后全面免费向用户开放。穆拉蒂还提到,付费用户将享受五倍的使用容量限制。


原生多模态:GPT-4o的技术突破


OpenAI宣称GPT-4o是一个“原生多模态”模型,其命名中的 “O”代表“Omni” ,即 全方位



与之前的GPT-4相比,GPT-4o能够更灵活地处理多种输入方式, 无论是文字、音频还是图像,都能无缝地转换为图文音频的多种形式输出。



实时对话:GPT-4o的速度革新


GPT-4o在回答速度上取得了显著进步。 以往的GPT-4在实现对话时需要 经历语音转文字、生成回复文本、再转成语音的三个步骤,这不仅造成了高达数秒的延迟,还导致信息的丢失。



而GPT-4o通过端到端的新模型训练, 使得所有输入输出都由同一神经网络处理,极大缩短了响应时间,平均响应时间降至320毫秒,与人类反应速度相仿。


桌面版GPT:无缝的工作体验


GPT-4o还带来了更优质的用户界面。新的桌面版GPT可以轻松融入任何工作流,用户可以随时通过图像、文字、语音与GPT进行交流,提供了前所未有的便捷体验。


萨姆·奥尔特曼(Sam Altman)在社交媒体上补充道,模型的升级不仅限于GPT本身,开发者也可以通过API同步使用GPT-4o。


新模型的价格是GPT-4 Turbo的一半,而速度则是其两倍。此外,GPT-4o在50多种非英语语言上也进行了加强。


实机演示:GPT-4o的实用展示


发布会的最后环节是实机演示,OpenAI的研究员Marc Chen和Barret Zoph展示了GPT-4o的强大功能。GPT-4o不仅能识别呼吸声并给予即时反馈,还能在对话中灵活应对用户的打断和要求,展现了其在听环境音和即时反馈方面的重要新能力。


尽管GPT-4o的发布带来了许多积极反响,但也有一些用户对OpenAI的更新步伐表示不满,认为公司在GPT-4上的进展过于缓慢。同时,免费模式也引发了一些对数据隐私的担忧。




对于广大用户而言,无需注册即可使用的便利性无疑是一大福音。GPT-4o的发布,无疑将推动AI技术的进一步普及和应用。随着技术的不断进步,我们有理由期待,未来的AI将更加智能、更加人性化。






中文版ChatGPT4.0微信端使用方式






请到「今天看啥」查看全文