本条微博地址
齐_大_圣
马斯克承诺的Grok-1模型已开源在GitHub上,参数量达3140亿。混合专家架构设计带来技术革新,但面临运行需求高难题。这一举动也被视为马斯克与OpenAI的对抗之举,为业内带来一场技术风波。
本条微博地址
zm路路通
马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星 →
马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星
@新浪财经
本条微博地址
赛林克
马斯克在github上开源了grok的源码 我觉得他的营销能力要大于工程能力 但没人会否定他对科技产业的推动 我愿称他为美国雷军
本条微博地址
阿尼亚是安妮亞
memotrace 好像也在计划商业化了 之前还在github上赞助过来着 不过 GPLv3 的开源协议收费好像也没什么问题
本条微博地址
一斤蔬菜半斤水果
很多人说,DYOR, 那么怎么做 DTOR? 你去推特啊,官网啊,github,去看他们的文档,寻找关键的信息,
本条微博地址
屠猪馆最不认真的选手
纪念本编程小白跑通了人生中第一个github项目
本条微博地址
刷一刷谈一谈
马斯克承诺的Grok-1模型已在GitHub上开源,参数量达到3140亿,吸引了大量关注。该模型采用混合专家架构,但也面临运行需求高、模型文件庞大等。此举也被视为马斯克与OpenAI的对抗之举,为业内带来一场技术变革的风波。而马斯克旗下其他公司也在取得重大进展,如特斯拉推出FSD V12自动驾驶、SpaceX再次发射星舰等等,让人们见识到他多领域的企业实力。马斯克如此多线并进,能否继续引领科技潮流,拭目以待……
本条微博地址
姐姐请你吃火锅
老登在GitHub找了个开源的抖音爬虫,报了一下午的错,终于东搜西百度把标红的搞完了。
本条微博地址
兔贝会员xh
硅基生物进度+1,马斯克真的开源了自家314b大模型。。。拿破仑用刺刀和大炮推广了大革命,马斯克用github和推特推广了大模型
本条微博地址
黄建同学
Anton复刻了一个Devin(前几天特别火🔥的那个AI程序员
网页链接
),看看他是如何实现的↓(没有写一行代码)
#程序员#
1. 截屏获取Devin应用的界面
2. 通过 gptengineer app(gptengineer.app)连接前端和github代码空间
3. 克隆 Open Devin 和 gptme (github.com/ErikBjare/gptme)作为后端
4. 使用 gptme CLI 连接它们以获得完整的应用程序
ChatGPT
黄建同学的微博视频
本条微博地址
KOLNIGSEGW
钟文泽
当地时间3月17日,特斯拉CEO埃隆·马斯克旗下的人工智能初创公司xAI正式宣布开源大模型Grok-1,遵循Apache 2.0协议开放模型权重和架构。官网显示,xAI已经将Grok-1的权重和架构在软件托管平台GitHub上开源。
xAI表示,Grok-1是一个由xAI 2023年10月使用基于JAX和Rust的自定义训练堆栈、从头开始训练的3140亿参数的混合专家(MOE)模型。该模型在海量文本数据上进行了从零开始的训练,覆盖了广泛而多元的知识与信息。
#马斯克AI大模型Grok开源#
本条微博地址
GitHubDaily
推荐 GitHub 上最近连续霸榜的一个自媒体爬虫工具 MediaCrawler。
目前已支持小红书、抖音、快手、B 站、微博等自媒体平台的视频、图片、评论、点赞、转发信息抓取。
实现了多种登录方式、指定数据爬取、IP 代理池以及多种格式数据保存等功能。
GitHub:github.com/NanmiCoder/MediaCrawler
该工具目前是通过命令行方式部署安装使用,因此需要一些 Python 技术基础知识。
本条微博地址
厦门联络易科技有限公司
免费的开源私域工具代码,欢迎大家一起交流 github:
网页链接
gitee:lianluoyi/easyink_System
本条微博地址
看雪学苑
ChatGPT生态系统存在多个安全漏洞,可能导致第三方网站账户及敏感数据遭到访问
Salt Labs研究发现,对于渴望获取非授权访问权限的黑客而言,OpenAI ChatGPT的第三方插件可能是一种新的攻击面。在对ChatGPT生态系统的研究中发现的漏洞可能允许攻击者在未经用户同意的情况下安装恶意插件,从而窃取敏感数据、接管GitHub等第三方网站帐户。
在早期版本中,ChatGPT只能有效回答与其原始训练数据集(只包含2021年之前的数据)有关的问题,而ChatGPT插件则是设计用于突破此限制的工具,从而允许访问最新信息、执行计算或访问第三方服务。这些服务可以是从简单的互联网搜索到特定服务(如GitHub、Google Drive、Saleforce等)的任何内容。这使得ChatGPT功能更加强大,可以在各种平台上运行,并提供更多互动和高效的体验。
但Salt Labs研究人员发现,通过利用ChatGPT中的一个漏洞,黑客能够欺骗用户并安装恶意插件,并使其能够拦截提取受害者共享的所有数据(其中可能包含专有信息)。
本条微博地址
GitHubDaily
推荐 GitHub 上一款跨平台视频下载工具 Lux。
这是使用 Go 语言编写的视频下载命令行工具,支持几乎所有视频平台,如抖音、B 站、YouTube、Twitter、腾讯、爱奇艺等等。
GitHub:github.com/iawia002/lux
提供了包括 macOS、Windows、Linux 等平台的命令行支持。
另外,还可通过参数来控制下载视频的格式、清晰度、字幕等。
本条微博地址
欲风景若沉沦
ElonMusk
埃隆马斯克已将Grok开源在Github平台上,大家可以通过该平台自由下载。
#马斯克将开源grok#
#Grok已开源在Github平台#
——图片中你能看到什么?
本条微博地址
有个梨GPT
微软应该是ai时代第一个倒下的巨人。因为大家发布模型的速度太快了,很快它的GitHub流量费就把纳德拉的裤子都赔光了。
本条微博地址
网路冷眼
【SPLADE: sparse neural search】
网页链接
SPLADE:稀疏神经搜索。
本条微博地址
银柿财经invest
【向OpenAI亮剑,马斯克开源Grok-1】
当地时间3月17日,马斯克在其xAI公司官网上宣布:我们正在对外公布包括3140亿参数的Grok-1的基础权重模型和网络架构。马斯克表示,xAI将在GitHub上开源它的人工智能聊天机器人Grok。这将允许研究人员和开发人员在该模型的基础上对它进行开发,并能进一步影响Grok的下一步更新。
更多内容点击:
网页链接
本条微博地址
财新网
【GPT革命|
#马斯克旗下大模型开源#
称参数量3410亿】
GPT革命|马斯克旗下大模型开源 称参数量3410亿
马斯克旗下的大模型公司对外公开源代码。当地时间3月17日,马斯克(Elon Musk)的人工智能公司xAl在全球最大的编程项目托管平台 GitHub上发布了预训练大语言模型Grok-1的源代码,目前收藏超11.7k星数。Grok-1使用Apache-2.0开源协议,这意味着它允许商业途径使用,并且允许用户自由修改开发、分发软件。
xAI于官网公布 了Grok -1更多技术细节。xAI称,Grok-1 的预训练数据止于 2023 年10 月,是一款原始基础模型,并没有针对任何特定应用进行微调,Grok-1背后参数为3140 亿。xAI在开源界面上提示,需要GPU有足够显存才能运行该模型。作为参考,2020年5月OpenAI发布的GPT-3模型参数约为1750亿,Meta的开源大模型Llama-2目前对外提供的最大参数的模型为700亿参数。
本条微博地址
杨品-光线摄影学院
《马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!GitHub揽6k星》说到做到,马斯克xAI的Grok,果然如期开源了!就在刚刚,xAI正式发布3140亿参数混合专家模型Grok-1的权重和架构。目前,xAI关于Grok-1没有透露更多信息。
网页链接
本条微博地址
Yamino彼方
GitHub首次收到回复
本条微博地址
爱可可-爱生活
【GauStudio 是一个支持3D Gaussian Splatting (3DGS)领域的统一框架,提供代码基础、简洁流程和各种工具和资源,帮用户轻松探索、实施和部署基于 3DGS 的解决方案】'GauStudio - A Uniform Framework for 3D Gaussian Splatting and Beyond' GitHub: github.com/GAP-LAB-CUHK-SZ/gaustudio
#开源#
#机器学习#
#人工智能#
本条微博地址
爱可可-爱生活
【Grok-1:xAI的Grok-1开源大语言模型及其JAX示例代码,用于加载和运行】'Grok-1 - Grok open release, containing JAX example code for loading and running the Grok-1 open-weights model’ GitHub: github.com/xai-org/grok-1
#开源#
#机器学习#
#人工智能#
本条微博地址
爱可可-爱生活
'ComfyUI Workflows ZHO - ComfyUI 工作流合集' GitHub: github.com/ZHO-ZHO-ZHO/ComfyUI-Workflows-ZHO
#开源#
#机器学习#
#人工智能#
本条微博地址
修羅場skylar
github我到现在都不会玩
本条微博地址
爱可可-爱生活
【文生图相关论文资源列表】’A Collection of Text-to-Image Generation Studies - A collection of awesome text-to-image generation studies.' GitHub: github.com/AlonzoLeeeooo/awesome-text-to-image-studies
#开源#
#机器学习#
#人工智能#
本条微博地址
爱可可-爱生活
【Developer Portfolio:软件开发者的个人网站,使用 Next.js 和 Tailwind CSS,帮助用户展示他们的代码和技能】'Developer Portfolio - Software Developer Portfolio Website built with next.js and tailwind CSS that helps you showcase your work and skills as a software developer.' GitHub: github.com/said7388/developer-portfolio
#开源#
本条微博地址
爱可可-爱生活
【Mechanoid:用于嵌入系统上构建和运行 WebAssembly 应用的开放源框架,有助于创建更安全的和可扩展的应用】'Mechanoid - Mechanoid is a framework for WebAssembly applications on embedded systems.' GitHub: github.com/hybridgroup/mechanoid
#开源#
#WebAssembly#
本条微博地址
爱可可-爱生活
【ThreePipe:基于 Three.js 的3D渲染框架,致力于渲染、模块化和可扩展性】'ThreePipe - A 3D viewer framework built on top of three.js with a focus on rendering, modularity and extensibility.' GitHub: github.com/repalash/threepipe
#开源#
#3D#
本条微博地址
Marteker
3 月 15 日,腾讯和清华大学、香港科技大学联合推出全新图生视频模型「Follow-Your-Click」,目前已经上架 GitHub(代码四月公开),同时还发表了一篇研究论文(DOI:2403.08268)。
这款图生视频模型主要功能包括局部动画生成和多对象动画,支持多种动作表达,如头部调整、翅膀拍动等。
据介绍, Follow-Your-Click 可以通过用户的点击和简短动作提示生成局部图像动画。用户只需点击对应区域,加上少量提示词,就可以让图片中原本静态的区域动起来,一键转换成视频,比如让物体微笑、跳舞或飘动。
除了能够控制单个对象的动画,这个框架还支持同时对多个对象进行动画处理,增加了动画的复杂性和丰富性。用户可以通过简单的点击和短语提示轻松地指定希望动画化的区域和动作类型,无需复杂的操作或详细描述。(IT之家)
本条微博地址
爱可可-爱生活
【视觉语言模型架构大列表】’Awesome Vision Language Model Architectures - Famous Vision Language Models and Their Architectures' GitHub: github.com/gokayfem/Awesome-VLM-Architectures
#开源#
#机器学习#
#人工智能#
本条微博地址
爱可可-爱生活
【Lite-Sora是一个旨在复制 Sora 的开源项目,致力于通过简洁易懂的代码,探索和提高视频生成算法的基础框架】'Lite-Sora - An initiative to replicate Sora' GitHub: github.com/modelscope/lite-sora
#开源#
#机器学习#
#人工智能#
本条微博地址
InfoQ
刚刚!马斯克开源 Grok:参数量近 Llama 四倍,成全球最大开源模型;刚刚,马斯克在他的社交媒体平台 X 上宣布 xAI 开源 Grok,这也兑现了他上周的开源承诺。截至目前,Grok 已经在 GitHub 上获得了 4.3k 颗 Star。
网页链接
本条微博地址
爱可可-爱生活
'《AI 辅助编程:借助 GitHub Copilot 和 ChatGPT 掌握 Python》 - 《Learn AI-Assisted Python Programming: With GitHub Copilot and ChatGPT》一书的非官方翻译' GitHub: github.com/cssmagic/Learn-AI-Assisted-Python-Programming
#开源#
#机器学习#
#人工智能#
本条微博地址
爱可可-爱生活
几篇论文实现代码:
《Dynamic Adapter Meets Prompt Tuning:
Parameter-Efficient Transfer Learning for Point Cloud Analysis》(CVPR 2024) GitHub: github.com/LMD0311/DAPT [fig3]
《ViT-CoMer: Vision Transformer with Convolutional Multi-scale Feature Interaction for Dense Predictions》(CVPR 2024) GitHub: github.com/Traffic-X/ViT-CoMer [fig4]
《Training-free Pretrained Model Merging》(CVPR 2024) GitHub: github.com/zju-vipa/training_free_model_merging
《LLM4Decompile: Decompiling Binary Code with Large Language Models》(2024) GitHub: github.com/albertan017/LLM4Decompile [fig1]
《OpenGraph: Towards Open Graph Foundation Models》(2024) GitHub: github.com/HKUDS/OpenGraph [fig2]
《GraphEdit: Large Language Models for Graph Structure Learning》(2024) GitHub: github.com/HKUDS/GraphEdit [fig5]
《Variational Learning is Effective for Large Deep Networks》(2024) GitHub: github.com/team-approx-bayes/ivon
《QuEST: Low-bit Diffusion Model Quantization via Efficient Selective Finetuning》(2024) GitHub: github.com/hatchetProject/QuEST
本条微博地址
高飞
虽然Sora还没有正式发布,但是Open-Sora项目来了。
由Colossal-AI团队发布的“Open-Sora 1.0”是一个开源解决方案(github.com/hpcaitech/Open-Sora),旨在通过类似OpenAI Sora的文本到视频模型推进视频创作时代。Open-Sora模型强调通过降低46%的训练和推理成本,提供其架构、训练和推理过程的全面细节,包括数据处理和模型检查点。发布的模型经过三天的训练,可以生成长度为2-5 秒、分辨率为512x512 的视频。
1、架构设计: 使用扩散变Transformer(DiT)架构,特别是用于文本到图像的PixArt-α,并通过添加时间注意力层扩展到视频生成。这包括一个预训练的变分自编码器(VAE)、一个文本编码器和一个STDiT(空间时间扩散变换器),利用空间时间注意力机制。这种设计以其节约成本的训练和推理而著称,超越了全注意力机制,并利用预训练的图像DiT权重进行视频数据训练。
2、训练复制方案: 采用三阶段训练方法:大规模图像预训练、大规模视频预训练和高质量视频数据微调。这个多阶段过程,从图像预训练开始,使用文本到图像技术和预训练的空间VAE,允许有效地进展到视频预训练和微调,以提高视频质量。
数据预处理: 提供视频数据预处理脚本,包括分割、使用LLaVA生成细粒度提示词的字幕生成和准备训练的视频文本对。这降低了启动Sora复制项目的技术障碍。
视频生成与性能
3、视频生成示例: 展示了模型从各种提示创建视频的能力,展示了海上的航拍画面、山上瀑布、珊瑚礁中的海龟和银河系。然而,模型目前存在限制,如生成了一个多出一只脚的海龟,表明在生成质量和文本跟随方面需要改进的领域。
4、GPU使用和成本: 报告了第二阶段和第三阶段训练过程的训练量和相关成本,总计约10,000美元用于使用64个H800 GPUs。这突出了训练如此先进模型的资源密集性,同时保持对成本降低的关注。目前版本使用了400K的训练数据,因此需要提高模型的生成质量和文本跟随能力。
高飞的微博视频
本条微博地址
AI思维车间_AIMindwork
xAI 刚刚开源了,马斯克兑现了承诺,算是对 OpenAI 不 Open 的一次反击。 Github: h++ps://github.com/xai-org/grok-1
本条微博地址
dmcook_126
【马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星】
@新浪新闻
马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星
本条微博地址
网易财经
【
#马斯克的大模型Grok开源#
】北京时间3月18日早上,“硅谷钢铁侠”、亿万富翁马斯克旗下 AI 初创公司 xAI 宣布,其研发的大模型Grok-1正式对外开源开放,用户可直接通过磁链下载基本模型权重和网络架构信息。Grok上线GitHub后狂揽了6000星,586个Fork。
#马斯克打脸OpenAI#
马斯克打脸OpenAI!全球最大模型Grok-1开源,高达3140亿参数震撼世界|钛媒体AGI
本条微博地址
BigYe程普
你们看我发现了什么!
这是一个使用Nextjs、React、Drizzle和Stripe开发的仿Duolingo开源项目:github.com/AntonioErdeljac/next14-duolingo-clone
它的功能非常丰富,包含了:AI语音、组件系统、认证系统、音效、生命值系统、积分/经验值系统、排行榜、任务等等。
感觉折腾折腾就能上线自己的语言学习平台了👏。
本条微博地址
蜀道难寻
开源代码GitHub
网页链接
本条微博地址
21世纪商业评论
【
#马斯克的大模型Grok开源#
】北京时间3月18日早上,“硅谷钢铁侠”、亿万富翁马斯克旗下 AI 初创公司 xAI 宣布,其研发的大模型Grok-1正式对外开源开放,用户可直接通过磁链下载基本模型权重和网络架构信息。Grok上线GitHub后狂揽了6000星,586个Fork。(网易财经)
本条微博地址
GitHubDaily
一个专注于 ComfyUI 的作者,把他公开的工作流整理并开源到 GitHub 上。
一共有 36 个,分为 14 大类,涵盖了 Stable Scascade、3D、LLM+SD、Portrait Master、SVD 等相关类别的工作流。
GitHub:github.com/ZHO-ZHO-ZHO/ComfyUI-Workflows-ZHO
如果你也在学习 ComfyUI,希望这工作流合集对你有所帮助。
本条微博地址
机器之心Pro
文生视频的模型架构、训练好的模型权重、复现的所有训练细节、数据预处理过程、demo 展示和详细的上手教程,Colossal-AI 团队已经全面免费开源在 GitHub,同时笔者第一时间联系了该团队,了解到他们将不断更新 Open-Sora 的相关解决方案和最新动态,感兴趣的朋友可以持续关注 Open-Sora 的开源社区。
没等来OpenAI,等来了Open-Sora全面开源
本条微博地址
北大AI鱼博士
【
#马斯克正式开源Grok,技术细节曝光#
】
马斯克正式开源Grok: github.com/xai-org/grok
- 模型参数数量高达3140亿
- 混合专家模型(Mixture of Experts, MoE)
- 每一个数据单元(Token)由2位专家处理
- 共64个处理层
- 用于处理查询的有48个注意力机制单元(attention heads)
- 用于处理键(key)/值(value)的有8个注意力机制单元
- 嵌入向量(embeddings)的维度为6,144
- 采用旋转式嵌入表示(Rotary Position Embeddings, RoPE)
- 使用SentencePiece分词系统处理,包含131,072种数据单元
- 支持激活数据分布计算(activation sharding)和8位数字精度量化(8-bit quantization)
- 最大序列长度为8,192个数据单元,以处理更长的上下文信息
模型介绍:314B 大小,MoE 层的实现并不高效,这样是为了避免自定义内核,以简化模型验证的过程。
遵循 Apache 2.0,即:可商用:用户可以自由地将软件用于商业目的,不必支付许可费。
可修改和分发:用户可以修改源代码,并且可以在修改后的软件上施加同样的许可证进行再分发。
专利授权:该许可证自动授予软件用户任何专利权利,这意味着贡献者不能对软件用户提起专利诉讼。
保留版权和许可声明:在分发软件或其修改版本时,必须保留原有的版权声明和许可证声明。
不承担责任:提供一定的保障,但软件作者或贡献者不必为软件可能引起的任何损失承担责任。
本条微博地址
计算机世界
【马斯克大模型正式开源】
Grok-1宣布正式开源。xAI从头开始训练,截至2023年10月完成预训练。Grok-1一共3140亿参数专家混合模型,没针对特定任务进行微调,基于Apache 2.0许可下发布,任何有兴趣的人都可以通过其GitHub页面上的指南来尝试和使用这个模型。
业内普遍挺兴奋。Perplexity就马上表示会引入。不过也有人指出,模型的规模过大,开源社区很难进行有效迭代。
Hugging Face(
网页链接
)
GitHub(
网页链接
)
本条微博地址
才望云开发者联盟
腾讯联合清华大学、香港科技大学推出全新图生视频模型「Follow-Your-Click」:用户指哪动哪!
3 月 15 日,腾讯和清华大学、香港科技大学联合推出全新图生视频模型「Follow-Your-Click」,目前已经上架 GitHub(代码四月公开)。这款图生视频模型主要功能包括局部动画生成和多对象动画,支持多种动作表达,如头部调整、翅膀拍动等。