## 启动伟大的想法:行动指南 伟大的想法很少凭空出现,它们在特定的社群中蓬勃发展。本分析揭示了如何利用这一原则取得成功,并从GameStop的激增、Pinterest的增长以及历史上的农业创新中吸取教训。 **成功的关键在于找到合适的社群:** 寻找那些具有高风险偏好、强烈群体认同感(“我们”与“他们”的心态)、既定的叙事模式、内部语言以及对单一主题充满热情的群体。 **寻找你的社群:** 不要因为最初的拒绝而气馁。Pinterest最初在科技圈失败,但却在女性设计博主中获得了发展动力。试错是关键。 **首先要定位的目标人群:** 专注于“社交蒲公英”——社群中高度连接和活跃的个体。他们不一定是传统领导者,但他们与最多的人互动,从而扩大你想法的影响力。布鲁姆斯伯里出版社成功地利用这一策略,将哈利波特作品推广给图书馆员。 **说服蒲公英:** 最小化“采纳成本”——参与你的想法所需的努力、风险或时间。Behance的Scott Belsky为设计师构建了作品集,以克服最初的障碍。 最终,启动一个成功的想法不仅仅是关于这个想法本身,而是关于将其与合适的社群战略性地连接起来,并促进其传播。
这是一位人工智能工程师的沮丧呼吁,他对无休止、重复的内容感到厌倦,这些内容都在预测人工智能将“改变一切”。作者认为,当前讨论充斥着缺乏根据的预测,缺乏真正的洞察力、实验或数据驱动的分析。
虽然承认人工智能的变革潜力,但他们批评了大量文章和视频仅仅*断言*变革将会发生,而没有探讨它*现在*是如何发生的。作者渴望看到专注于具体应用的内容——例如人工智能*目前*如何影响特定行业——而不是将推测的未来场景呈现为突破性愿景。
本质上,他们要求减少“思想领导力”,增加更多关于现实世界人工智能实施的实用、有洞察力的报道。
## LLM:强大的胡说八道者
马特·兰杰认为,大型语言模型(LLM)并非真正智能,而是精密的“胡说八道者”——能够在不顾及真相的情况下生成具有说服力的文本。他借鉴了哈里·弗兰克福的观点,解释说LLM通过统计预测最可能的文本来运作,并通过训练和微调不断完善。虽然像微调这样的改进可以纠正一些错误,但也会引入新的问题,例如倾向于通过自信地断言虚假信息来“煤气灯”用户。
LLM擅长*解决问题*——例如快速总结文档——但不应依赖它们来获取*智慧*或进行批判性思考。它们的用处在于可以进行验证且错误风险较低的任务。然而,它们的训练本质上会引入偏见,反映了为其开发提供资金者的利益。
兰杰警告不要盲目信任LLM,强调它们有可能强化有害的妄想,甚至通过阿谀奉承的行为对心理健康产生负面影响。他强调理解*LLM服务于谁*以及积极参与其输出的重要性,而不是被动地将其视为真理。归根结底,LLM是工具,它们的价值取决于有意识的、批判性的使用。
最近,Cloudflare、GitHub 和 AWS 等主要互联网基础设施提供商的大规模中断暴露了科技公司运营中的一个关键缺陷:优先购买而非构建核心功能。正如《侏罗纪公园》中灾难性的选择所说明的——构建复杂的系统而非利用现有解决方案——依赖于不透明、外部控制的抽象会产生漏洞。
核心原则应该是**构建能提供你独特价值的东西**,并**购买其他一切**。公司常常浪费资源构建非必要工具,同时将关键业务逻辑外包给他们不完全理解的云提供商。这造成了一种“基础设施陷阱”,由于复杂的抽象层,故障难以诊断和解决。
透明度和控制力是关键。构建在自有硬件上,虽然需要更多前期投入,但可以进行可理解的故障排除。相反,云提供商的问题可能不透明且修复缓慢,使企业无能为力。目标不是完全自给自足,而是一种深思熟虑的方法:拥有定义你业务的组件,并为其他一切购买更简单的解决方案——避免为了便利而牺牲理解的过度复杂的抽象。最终,理解你的系统对于在系统发生故障(而非是否会发生)时的韧性至关重要。