Andrew Ng@AndrewYNg53Andrew Ng 推出新课程《Transformers in Practice》,与 AMD 合作,由 Sharon Zhou 主讲。课程提供基于 Transformer 的 LLM 的实用视角,帮助理解其行为、诊断推理缓慢等问题,并做出更明智的部署决策。课程包含交互式可视化,而非纯视频,让学员动手探索概念。学员将掌握 LLM 幻觉原因、注意力机制、推理瓶颈诊断及 GPU 加速技术。AI模型TransformerLLM课程推理优化AMD推荐理由:想真正理解 LLM 内部机制、诊断推理问题的开发者,这门课能帮你从黑盒用户变成懂原理的实践者,建议直接报名。
Andrej Karpathy@karpathy精选67Karpathy 在 Sequoia Ascent 2026 炉边谈话中分享了三个核心主题。首先,LLM 远不止是加速现有工作(如编程),他举了三个新例子:menugen 应用完全由 LLM 驱动无需传统代码、用 .md 技能替代 .sh 脚本安装软件、以及基于 LLM 的知识库处理非结构化数据。其次,他深入解释了 LLM 的“锯齿状能力”模式——为何同一个模型既能重构十万行代码,又会建议你去洗车——这源于领域可验证性和经济因素(收入/TAM 决定训练数据分布)。最后,他展望了智能体原生经济,包括产品服务分解为传感器、执行器和逻辑,以及如何让信息对 LLM 更可读,并暗示了全神经计算的未来。行业LLM智能体Karpathy智能体原生经济能力边界推荐理由:Karpathy 把 LLM 的“锯齿状能力”和智能体原生经济讲透了,做 AI 产品、搞智能体开发的团队看完会对能力边界和落地方向有全新认知,值得点开细品。
Andrej Karpathy@karpathy精选40AI 研究员 Andrej Karpathy 在 X 上分享了一个实用技巧:在对话结束时让 LLM 将回答结构化为 HTML,然后在浏览器中查看生成的文件。他认为,音频是人类偏好的输入方式,而视觉(图像/动画/视频)是偏好的输出方式。他预测 AI 输出将从纯文本、Markdown 向 HTML 演进,最终走向交互式神经视频/模拟。他还指出,输入方面需要增加指向/手势等交互方式。目前阶段,他建议尝试让 LLM 输出 HTML 以提升信息接收效率。技巧LLMHTML视觉输出交互Karpathy推荐理由:Karpathy 的这个技巧让 AI 输出从枯燥文本变成可视化页面,做演示、写文档或做数据分析的团队可以直接用,省去手动排版时间。
AK@_akhaliq55Soohak是由数学家精心策划的基准测试,旨在评估大型语言模型(LLM)在科研级别数学问题上的能力。该基准涵盖高等数学的多个领域,包括代数、几何、分析等,要求模型不仅具备计算能力,还需展现推理和创新解题能力。这为评估LLM在专业数学研究中的应用潜力提供了更严格的测试标准。论文推理模型LLM数学评测基准测试Soohak推荐理由:Soohak填补了现有数学评测基准在科研深度上的空白,为AI在数学领域的前沿应用提供了更精确的评估工具,有助于推动模型在数学推理和问题解决上的进步。