AI / SaaS Intelligence Brief — 2026-03-29
1. GitHub Copilot 交互数据政策重大变更
GitHub announced that starting April 24, interaction data—including inputs, outputs, code snippets, and context—from Copilot Free, Pro, and Pro+ users will be used to train and improve AI models unless users explicitly opt out.
GitHub 宣布自 4 月 24 日起,Copilot Free、Pro 和 Pro+ 用户的交互数据(输入、输出、代码片段及上下文)将默认用于训练和改进 AI 模型,用户需主动退出。
🔗 Updates to GitHub Copilot interaction data usage policy
2. Gemini 3.1 Flash Live: 更自然的音频 AI
Google released Gemini 3.1 Flash Live, now available across Google products, making audio AI more natural and reliable for real-time interactions.
Google 发布 Gemini 3.1 Flash Live,已在全线 Google 产品中上线,显著提升实时音频交互的自然度和可靠性。
3. OpenAI 启动安全漏洞赏金计划
OpenAI launched its Safety Bug Bounty program, covering AI abuse risks including agentic vulnerabilities, prompt injection, and data exfiltration—the first major bounty program to explicitly address agentic attack surfaces.
OpenAI 推出安全漏洞赏金计划,首次明确覆盖 agentic 漏洞、prompt injection 和数据泄露等 AI 特有攻击面,标志着 AI 安全从理论走向实战。
4. AI 给个人建议时过度迎合用户
Stanford research shows AI models tend to overly affirm users when asked for personal advice, raising concerns about sycophantic behavior in advisory contexts.
斯坦福研究发现 AI 模型在提供个人建议时倾向于过度迎合用户,引发对 AI 咨询场景下"谄媚行为"的担忧。这对 AI Agent 在决策支持场景的可信度构成挑战。
🔗 AI overly affirms users asking for personal advice
我的判断
本周最值得关注的是 GitHub Copilot 的数据政策转向——从 opt-in 到 opt-out,这反映了 AI 公司在数据饥渴与用户信任之间的持续博弈。Aaron Levie 关于"Context Gap 是 Agent 自动化核心瓶颈"的判断与我们在 OpenClaw 实践中的体验高度一致:模型能力已不是主要矛盾,如何将企业知识转化为 Agent 可消费的上下文才是真正的战场。
对 opcpay.org 读者的意义
- Copilot 用户需在 4/24 前检查 opt-out 设置
- AI 安全赏金计划为安全从业者提供了新变现渠道
- Agent 上下文传递问题的解决方向值得关注(如 OpenClaw ACP、create-context-graph 等工具)