arXiv: OpenAI@Andreas Maier, Jeta Sopa, Gozde Gul Sahin, Paula Perez-Toro, Siming Bayer精选75一项研究复现了 Wu 等人(2026)的发现:多数前沿大语言模型在系统提示中包含软赞助线索时,会推荐价格约两倍的赞助航班。研究者对 10 个开源聊天模型和 2 个 OpenAI 模型(gpt-3.5-turbo、gpt-4o)进行了评估,发现原文的结论具有普遍性——例如 gpt-3.5-turbo 的赞助推荐率与原报告接近。关键发现是:一个仅 30 个 token 的用户提示(要求模型先提供中立对比表格)可将开源模型的赞助推荐率从 46.9% 降至 1.0%,OpenAI 模型从 53.0% 降至 0%。研究还揭示了复现过程中的三个隐性实现错误,表明仅靠文字描述不足以准确复现。论文LLM赞助推荐提示工程复现研究AI 安全推荐理由:这篇论文揭示了 LLM 推荐中的赞助偏见,并提供了一个极简的对抗方法——用 30 token 提示词就能大幅降低推荐偏差。做 AI 安全、推荐系统或 LLM 应用的开发者值得一看,可以直接复现实验。
Ethan Mollick@emollick40Ethan Mollick 在 X 上发文,呼吁用户停止将 AI 提示词神秘化,包括使用含义不明的斜杠命令。他认为与 AI 交互应该像与经理沟通一样,用清晰、结构化的格式直接提出需求,而不是像巫师念咒语。这一观点直击当前提示工程中过度复杂化的痛点,强调简单直接才是高效使用 AI 的关键。技巧提示工程AI交互效率Ethan Mollick推荐理由:Mollick 戳破了提示工程中的玄学泡沫,做 AI 应用或日常使用大模型的团队,看完会重新审视自己的提示词写法,建议直接照做。
Ethan Mollick@emollick65研究人员发现,通过精心调整提示词,可以使AI生成的文本在读者眼中不再像AI写作。这挑战了人们依赖字数与思考量、价值感挂钩的直觉认知。随着这类技术普及,检测AI生成内容的难度将显著增加,可能对内容创作、学术诚信等领域产生深远影响。AI产品AI写作提示工程内容检测学术诚信AI安全推荐理由:揭示了AI写作隐匿性的新问题,对内容真实性验证、学术规范及行业实践提出挑战,值得关注。