AI代理的力量来自于: 1. 基础模型的智能 2. 你给予它的所有数据的访问权限 3. 你给予它的代表你行动的自由和权力 我认为对于第2和第3点,安全性是最大的问题。而且很快,如果还没有的话,安全性将成为AI代理整体(1-3)有效性和实用性的瓶颈,因为智能仍在快速扩展,并且对于许多用例来说不再是显而易见的瓶颈。 你给予AI代理的数据和控制越多: (A) 它能帮助你得越多,且 (B) 它能伤害你得越多。 很多技术精通的人现在处于yolo模式,优化前者(A - 实用性)而非后者(B - 网络攻击、数据泄露等的痛苦)。 我认为解决AI代理的安全问题是广泛采用的主要障碍。当然,这也是更广泛的AI安全问题的一个特定短期实例。 话虽如此,现在对开发者来说是一个超级激动人心的时代。我不断在编程和非编程任务上运行代理循环。我正在积极使用Claude Code、Codex、Cursor,并非常小心地实验OpenClaw。唯一的缺点是缺乏睡眠,以及每个人都感到的焦虑,仿佛总是落后于最新的尖端技术。但除此之外,我脸上挂着大大的笑容,热爱生活🔥❤️ PS:顺便说一下,如果你对上述任何内容的直觉不同,请分享你的想法。如果有我应该关注的酷项目/方法,请告诉我。我正处于全面探索/实验模式。