
专注大模型幻觉治理、越狱攻击、价值观对齐、红队测试、可解释性,在安全评测、防御、宪法AI方向持续产出。我们以NeurIPS、ICML、USENIX为冲刺目标,同时全面提升你的科研能力,从大模型红队测试方法到幻觉治理算法设计,从安全性评估到论文逻辑梳理,帮你掌握AI安全领域核心科研技能,建立“攻击-防御-评估”的完整科研思路。
研究价值:防止AI失控、偏见、造谣,确保AGI向善,直接影响国家AI安全战略与全球治理规则。
要求:逻辑思维强,科研能力精准提升
1. 熟悉大模型基础,提供AI安全专项入门指导
2. 能参与红队测试或防御算法开发,按需分配任务
3. 每周2-3次线上同步,聚焦科研难点与行业标准结合
补充:本硕博均可,信息安全/CS背景优先!加入即获AI安全顶会论文与测试工具包。
#AI安全#模型对齐#红队测试#幻觉治理#本硕博#顶会#可解释AI#大模型安全#AI伦理#NeurIPS
研究价值:防止AI失控、偏见、造谣,确保AGI向善,直接影响国家AI安全战略与全球治理规则。
要求:逻辑思维强,科研能力精准提升
1. 熟悉大模型基础,提供AI安全专项入门指导
2. 能参与红队测试或防御算法开发,按需分配任务
3. 每周2-3次线上同步,聚焦科研难点与行业标准结合
补充:本硕博均可,信息安全/CS背景优先!加入即获AI安全顶会论文与测试工具包。
#AI安全#模型对齐#红队测试#幻觉治理#本硕博#顶会#可解释AI#大模型安全#AI伦理#NeurIPS


