最近春招和日常实习已开启。
不同以往的是,当前职场已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
总结链接如下:
《大模型面试宝典》(2025版) 正式发布!
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球
情况介绍:硕士应届,有手撕,不过基本都在hot100范围内,面试还是压力很大的,有时候一时间答不出来就直接pass了,有问题欢迎与我交流。
一面
-
-
-
详细说一下Decoder的因果注意力 QKV分别来自哪
-
Attention为什么要做scaled 不做会怎么样 为什么用根号d_k
-
Transformer怎么做加速训练(KV缓存) 训练和推理有什么区别(并行化)
-
深挖多模态大模型论文用的video-llama 讲一下大模型的结构
-
-
-
LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数
-
知道deepspeed和megatron吗?分别介绍一下
-
论文用的deepspeed详细讲了一下三个stage分别是什么
二面
-
-
-
-
-
BLIP2的结构是什么 两阶段怎么训练的 有哪些损失
-
-
还有什么微调方法 -> prefix-tuning和P-tuning 两者分别是怎么做的 为了解决什么提出的
-
三面
-
-
讲一下multi-head attention 用pytorch手撕一下 要可以实现cross attention的
-
讲一下你用的大模型是什么结构 特征是怎么喂给大模型的
-
-
-
-
接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出
(完)
AI算法交流群(知识星球)来了
,这是一个面向全体学生和机器学习/算法工程师/研究员的技术沟通和求职交流的平台。
在这里你可以了解最前沿AI技术资讯、Paper、大模型
、多模态
,算法竞赛、
实战项目
、获取AI算法的校招/社招准备攻略、
面试题库
、面试经验分享、Offer选择、
内推机会
、
学习路线
、
求职答疑
和
海量学习资料
等内容。
同时,你也可以与来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
AI算法交流群方向涉及搜广推、深度学习,机器学习,计算机视觉,知识图谱,自然语言处理,大数据,自动驾驶,机器人,大模型、多模态等多个方向。
我们会不定期开展
知识星球现金立减优惠活动
,加入星球前可以添加我微信:
mlc2060
,咨询活动详情。iOS 用户直接添加我微信进星球
。