专栏名称: 学姐带你玩AI
这里有人工智能前沿信息、算法技术交流、机器学习/深度学习经验分享、AI大赛解析、大厂大咖算法面试分享、人工智能论文技巧、AI环境工具库教程等……学姐带你玩转AI!
目录
51好读  ›  专栏  ›  学姐带你玩AI

2024哈啰单车算法工程师一面 面试题

学姐带你玩AI  · 公众号  ·  · 2024-04-18 18:24

正文

来源:投稿  作者:LSC
编辑:学姐

一面

1.自我介绍

2.项目介绍

3.数据增强有哪些?

4.对比学习、对比学习的损失函数

对比学习是一种通过比较相似和不相似样本来学习特征表示的方法。在对比学习中,模型被要求将同一类别的样本映射到彼此相邻的点,而将不同类别的样本映射到远离彼此的点。

(1)对比损失: 对比损失是最常用的对比学习损失函数,它衡量正样本对之间的相似度,并鼓励负样本对之间的不相似度。

(2)交叉熵损失 :交叉熵损失用于衡量模型预测标签的准确性。

(3)triplet损失: triplet损失是一种针对三个样本的损失函数,它要求模型将两个相似的样本映射到彼此相邻的点,而将一个不相似的样本映射到远离这两个相似样本的位置。

(4)多项式损失: 多项式损失是一种用于对比学习的损失函数,它鼓励模型将相似的样本映射到彼此相邻的点,同时允许一定程度的平滑性。

5.损失函数的参数怎么选择?

交叉验证;CV参数搜索;其中学习率的选择通常通过实验来确定,可以使用学习率衰减策略或者自适应学习率优化算法来动态调整;权重衰减的值通常在训练过程中保持固定,或者根据模型在验证集上的表现进行调整等。

6.Xgboost和lightgbm的区别

https://zhuanlan.zhihu.com/p/87885678

7.最长回文子串

def solve(s):
    n = len(s)
    dp = [[0 for j in range(n)] for i in range(n)]
    dp[0][0] = 1
    res = 0
    for i in range(n - 1, -1, -1):
        for j in range(i, n):
            if s[i] == s[j]:
                if dp[i + 1][j - 1] == 1:
                    dp[i][j] = 1
            if dp[i][j] == 1 and j - i + 1 > res:
                res = j - i + 1
return res

关注“ 学姐带你玩AI ”公众号, 回复“ 简历

领取 算法工程师万能简历公式+模版

往期精彩阅读







请到「今天看啥」查看全文