1.1. 卫星互联网
行业动态
:
我国成功发射千帆星座第三批组网卫星(微信公众号:上海市空间信息产业协会)
北京时间2024年12月5日12时41分,我国在太原卫星发射中心使用长征六号甲运载火箭,成功将千帆星座第三批组网卫星以“一箭18星”方式发射升空,卫星顺利进入预定轨道,发射任务获得圆满成功。至此,千帆星座在轨卫星数量增至54颗,能够为地面提供的连续通信能力进一步提升。千帆星座组网卫星的航班化、常态化发射,也是我国平板式卫星堆叠“一箭多星”发射技术的业务化应用实践,为后续更多数量卫星的堆叠发射奠定基础。
千帆星座的组网步伐正在加速推进,预计将于2025年全面启动全球范围内的卫星互联网商业服务。届时,交通运输、新能源、智慧城市、智慧农业、应急救灾、低空经济等多个领域都将迎来前所未有的赋能与升级。
千帆星座的部署计划主要分为三个阶段。第一阶段:2023年-2025年底,完成648颗GEN1卫星发射任务,实现区域网络覆盖;第二阶段:2026年-2027年底,完成648颗GEN2卫星发射任务,实现全球网络覆盖;到2030年底前,垣信卫星则计划通过15000颗卫星向全球用户提供低延时、高速率及高可靠性的卫星(宽带)互联网服务。
目前,千帆星座正实施第一阶段的部署计划,在此之前,已先后成功完成4次发射任务:2019年11月17日,首批两颗试验卫星(阿尔法a/b星)在酒泉卫星发射中心顺利发射,成功进入预定轨道。2021年8月4日,第二批两颗试验卫星(贝塔a/b星)在太原卫星发射中心顺利发射,成功进入预定轨道。今年8月6日、10月15日,千帆极轨01组、02组卫星均成功发射,并顺利进入预定轨道。
卫星互联网技术试验卫星发射圆满成功(公众号:中国新闻网、银河航天)
11月30日晚间,长征十二号运载火箭在海南商业航天发射场点火起飞,随后,火箭顺利将卫星互联网技术试验卫星、技术试验卫星03星送入预定轨道,我国首个商业航天发射场首次发射任务告捷。技术试验卫星03星由中国航天科技集团五院抓总研制。卫星互联网技术试验卫星由银河航天承担研制。
此次长征十二号运载火箭由中国航天科技集团八院抓总研制,火箭全长约62米,起飞质量约430吨,采用二级构型设计,一级采用4台推力1250千牛的液氧/煤油发动机,二级采用2台推力180千牛的液氧/煤油发动机,近地轨道运载能力不少于12吨,700公里太阳同步轨道运载能力不少于6吨,是中国目前运载能力最大的单芯级运载火箭,可根据任务需求适配5.2米、4.2米直径构型的整流罩,支持单星、多星不同轨道发射。长征十二号运载火箭是中国首型4米级运载火箭。4米级直径设计可实现箭体直径与发动机数量的最佳适配。
目前,航天技术的不断向前发展,卫星的更加智能化、拓展出更多应用场景,同时伴随着运载能力的不断提升,发射场资源供给的增加,商业航天产业生态不断培育,正在成为经济发展的新引擎。
1.2. AI行业动态:
“OpenAI 12天”活动推出o1多模态版本、ChatGPT Pro订阅计划每月200美元(公众号:硅谷AI见闻、上海证券报
北京时间12月6日凌晨,OpenAI举行了“12天12场直播”活动的首秀,会上正式推出了“满血版”推理模型o1,以及每月收费高达200美元(约合人民币1450元)的ChatGPT Pro订阅服务。
O1多模态版本更智能、响应速度更快、功能更多。相比之前的 o1-preview,o1完整版 在基础智能、响应速度和功能拓展上来了次全方位升级。o1错误率相比之前的模型减少大约三分之一,且模型能根据问题难度自动调节思考时间,简单问题直接快问快答,思考速度整体提升50%。o1在编码、数学和科学写作等方面表现更好。评测显示,o1在数学、编程上的性能显著优于o1-preview和GPT-4o,在博士级别的科学问题上远超GPT-4o,和o1-preview不相上下,但同样超越了人类专家。此外,可支持图像输入等多模态功能,从而对视觉和文本内容进行联合推理。
针对ChatGPT的重度用户,OpenAI推出ChatGPT Pro满足用户更难更大的任务需求。ChatGPT Pro可以访问OpenAI最佳的模型和工具,包括无限制访问最新发布的模型o1,以及o1-mini、GPT-4o和高级语音服务。与o1和o1-preview相比,o1 pro在数学、科学和编码等领域的挑战性机器学习基准测试中表现更好。ChatGPT Pro每月订阅费200美元,是此前订阅版本价格的10倍。OpenAI表示,随着时间的推移,将添加功能,以解锁更多计算密集型任务,并继续将这些新功能带给用户。
OpenAI此前预告将连续12日进行发布或演示,这在整个科技界都可谓罕见,而首日就放出了市场备受期待的o1模型,其接下来的发布更加让人期待,Sora、Agent,以及更多更强大的功能亦有望陆续推出。
亚马逊年末发布6款大模型、3nm AI芯片、全球最大AI计算集群(微信公众号:智东西)
智东西12月3日拉斯维加斯报道,在年度云计算产业盛会AWS re:Invent大会上,AWS发布6款大模型、预告2款大模型,还推出3nm第三代AI训练芯片Trainum3及其迄今最强AI服务器Trn2 UltraServer。
Amazon Nova系列基础模型首次亮牌
。Nova语言模型有四款:(1)Micro:纯文本模型,128k上下文窗口,延迟最低,响应速度最快。(2)Lite:成本很低的多模态模型,300k上下文窗口,可快速处理图像、视频和文本输入。(3)Pro:多模态模型,300k上下文窗口,兼顾准确度、速度和成本,能进行视频理解、生成创意素材。(4)Premier:亚马逊功能最强的多模态模型,可用于执行复杂的推理任务,并可用作蒸馏自定义模型的最佳老师(将于2025年第一季度推出)。据介绍,Micro、Lite和Pro的价格至少比Amazon Bedrock中各自智能类别中性能最佳的模型便宜75%。它们也是Amazon Bedrock中各自智能类别中速度最快的模型。AWS称到2025年初,某些Nova模型的上下文窗口将扩展以支持超过200万个token。
在基准测试中,Micro版整体性能超过Gemini 1.5 Flash 8B和Llama 3.1 8B;Lite在处理轻量级任务时是最低成本的多模态模型;新发布的另外两个Nova模型是图形生成模型Canvas和视频生成模型Reel,可用于提升宣传广告的创意。
AWS Trainium2实例全面推出,发布第三代AI训练芯片、最强AI服务器
。AWS全面推出由Trainium2芯片驱动的Amazon EC2 Trn2实例,相比当前基于GPU的EC2实例,性价比高出30%~40%。
在AI芯片方面
,AWS发布了新一代AI训练芯片Trainium3。这是首款采用3nm工艺节点制造的AWS芯片,能效提高40%、性能翻倍提升。搭载Trainium3的UltraServer性能预计将比Trn2 UltraServer高出4倍。首批基于Trainium3的实例预计将于2025年底上市。
在服务器方面,
AWS发布其史上最强AI服务器AWS Trn2 UltraServer,能支撑万亿参数AI模型的实时推理性能。全新Trn2 UltraServer使用超高速NeuronLink互连,将4台Trn2服务器连接在一起,形成1台巨型服务器,实现更快的大模型训练和推理。单个Trn2实例结合了16颗Trainium2芯片,可提供20.8PFLOPS,适合训练和部署有数十亿个参数的大语言模型。全新EC2产品Trn2 UltraServer提供相比当前EC2 AI服务器多达5倍的算力和10倍的内存,将FP8峰值算力扩展到83.2PFLOPS(单个实例的4倍)。