职位描述
职责描述:
1. AI安全治理体系构建与落地:参与制定人工智能安全治理制度、规范与流程。覆盖从AI系统准入、研发、部署到智能体应用的全生命周期,确保符合相关法规及监管要求。
2. AI模型与系统安全评估:针对模型(含大语言模型LLM、多模态模型)进行安全评估。包括但不限于:对抗样本攻击与防御测试、模型鲁棒性验证、模型可解释性审计、隐私泄露风险评估(如成员推理攻击、模型反演)、数据投毒检测等。
3. AI安全技术研发与防御:研究并应用前沿的AI安全技术,如联邦学习、差分隐私、同态加密等隐私计算技术在AI场景中的落地,以保护训练数据与模型隐私。
4. AI内容安全与应用治理:参与AIGC(生成式人工智能)内容的安全治理,建立内容过滤、审核与溯源机制,防范虚假信息、偏见歧视、违法不良信息的生成与传播。设计针对提示词注入(Prompt Injection)、越狱(Jailbreaking)等新型攻击的防御策略。
5. 合规与应急响应:跟踪国内外AI安全相关法律法规、标准规范及监管动态,推动内部合规适配。建立AI安全事件应急响应机制,负责AI相关重大安全事件的调查、分析与处置,包括模型被攻击、数据泄露等场景。
6. 安全赋能与协作:与AI算法研发、数据科学、产品及业务团队紧密协作,将安全需求嵌入AI开发生命周期,提供安全咨询与培训,提升团队整体AI安全意识与能力。
任职要求:
1. 学历与专业: 计算机科学、人工智能、网络安全、密码学、数学或相关专业本科及以上学历。
2. 工作经验: 3年以上信息安全、数据安全或AI算法研发相关工作经验,其中至少1-2年专注于AI安全、算法合规或AI攻防研究。有金融、云计算、互联网大厂AI安全项目经验者优先。
3. 专业知识与技能:
- 深入理解主流AI/ML算法(如CNN, RNN, Transformer, GAN等)原理及深度学习框架(PyTorch, TensorFlow等)。
- 精通AI安全核心领域知识,包括对抗机器学习、模型窃取、后门攻击、隐私攻击与防御等。
- 熟悉常见的网络安全攻防技术、Web安全漏洞及防范措施。
- 具备一定的编程能力,熟练掌握Python/C /Java等至少一种编程语言,能够编写自动化脚本或开发安全工具。
- 了解隐私计算技术(如联邦学习、安全多方计算)者优先。
4. 合规与标准: 熟悉国内外AI安全相关法律法规、伦理准则及行业标准(如NIST AI RMF, ISO/IEC 23894, 42001, 《生成式人工智能服务安全基本要求》等)。
5. 软技能与素质:
- 具备优秀的分析问题和解决问题的能力,对新技术有强烈的好奇心和学习能力。
- 良好的沟通表达能力和团队协作精神,能够跨部门推动安全方案落地。
- 具备高度的责任心、风险敏感度和保密意识。