这篇内容探讨了墙壁令人惊讶的历史,从泥土作为建筑材料的简单概念开始——这与它在《我的世界》中的用途相似。它追溯了从古代编织土墙到维多利亚时代劳动密集型石膏和板条墙的演变,强调了它们的脆弱性以及即使是挂画等简单任务所需的解决方法。 作者将这些较老的方法与现代石膏板的便利性进行了对比,强调了其大规模生产的一致性、强度和易用性。石膏板的开发实现了更好的隔热效果和简化的施工,克服了其前身的局限性。 尽管承认这个话题“乏味”,作者认为,像墙壁这样看似平凡的元素的进步往往是最有影响力的,而且很大程度上是看不见的。文章最后指出,石膏板技术仍在不断创新,包括防霉、防火和隔音功能,甚至“智能”墙壁系统。 **追伸:** 作者还提到了Substack评论实验以及6月28日在华盛顿特区举行的Stripe Press快闪活动。
这篇博文偏离了技术讨论,转而关注一个令人担忧的趋势:在人工智能造成损害的情况下,责任被转移。作者受到《华尔街日报》一篇文章的启发,该文章将人工智能的欺凌行为视为唯一问题,而非配置它的人类。
这与开源社区(包括Postgres)产生共鸣,后者正在积极应对人工智能工具的影响。CloudNativePG等项目正在制定政策以解决人工智能的负责任使用问题。作者认为,将行为归因于人工智能本身——“机器人道歉了”——会免除人类创造者和管理者的责任。
他们敦促技术社区停止使用这种措辞,强调人类最终要为他们创造和部署的人工智能负责。这不仅仅是一个技术问题,更是一个更广泛的文化问题,即逃避责任。重要的是要对明显的错误行为大声疾呼,尤其是在针对开源维护者的骚扰问题上。
## 人工智能担忧引发辞职与反思
两位人工智能研究人员近期从领先公司——Anthropic和OpenAI辞职,理由是日益增长的人工智能潜在危险的担忧。Anthropic人工智能安全负责人Mrinank Sharma警告说,由于人工智能和生物武器等相互关联的危机,世界正处于“危险之中”,并计划研究诗歌。他的离职紧随OpenAI的一起类似辞职,Zoe Hitzig表达了对ChatGPT中人工智能驱动的社交互动和广告产生的心理社会影响的担忧。
两家公司都处于生成式人工智能繁荣的前沿,但面临着在安全与商业利益之间取得平衡的审查。Anthropic将自身定位为以安全为中心,最近批评了OpenAI推出广告的做法。然而,两家公司都面临法律挑战——Anthropic面临版权索赔,OpenAI面临数据隐私问题。
这些辞职凸显了人工智能社区对该技术快速发展和部署日益增长的不安,以及努力确保伦理考量仍然是其进步的核心。离职的研究人员建议需要更严格的监管和更谨慎的方法,以避免重蹈社交媒体过去犯过的错误。