算法岗面经

时间: 2023-11-14 admin 维修知识

算法岗面经

算法岗面经

诸神缄默不语-个人CSDN博文目录

呃这个是我之前写的,理论上我应该搜集题目→做出解答这样的,但是我现在不再继续找工作了,所以感觉这些题目用不到了,我就直接把之前整理的这些资料发出来得了。
以后有缘分的话会继续补的,没缘分的话就这么多了。

文章目录

  • 1. SOTA LLM
  • 2. 本文撰写过程中参考的网络资料

1. SOTA LLM

lora和p-turning或者v2这几种方式,在哪些应用场景有区别,效果上,有没有了解过
训练的时候,batch是多条,那推理只有一条,batch如何推
大语言模型做微调batch假设为1的情况下能不能训练,效果咋样
粗排和精排的一致性越高越好吗?
GPT系的Decoder Only类模型,如何实现表征文档的embedding的生成?
在将来的大模型发展中,大模型生成数据是否是解决高质量数据不足的方法,如果不是有什么方法解决数据不足?
推荐算法工业界常用召回排序模型和冷启动
有哪些省内存的大语言模型训练/微调/推理方法?
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?

2. 本文撰写过程中参考的网络资料

  1. 题目来源(已复制过来)
    1. 面试题收集 - 飞书云文档
  2. 题目来源(还没复制完)
    3. 面试题汇总 - 飞书云文档