最近的调查显示,许多联邦政府应用程序请求过多的权限,引发了严重的隐私担忧。例如,白宫应用程序要求访问位置、生物识别信息,甚至包含来自受制裁的中国公司华为的追踪器。这种趋势,被称为“Fedware”,也延伸到联邦调查局(包含广告追踪器)、联邦紧急事务管理局(为基本警报请求28个权限)和国税局(在进行隐私评估之前发布应用程序)的应用程序。 像 CBP Mobile Passport Control 这样的应用程序尤其令人担忧,它们收集生物识别数据,并保留面部指纹长达75年,并在移民及海关执法局和联邦调查局等机构之间共享。移民及海关执法局的 SmartLINK,由一家私营监狱公司的子公司构建,使用地理位置、面部识别甚至医疗数据来监控个人。 此外,政府通过从 Venntel 等商业经纪人处购买位置数据来绕过搜查令要求,甚至追踪参加礼拜活动或抗议活动的人员。尽管面临法律挑战,国税局和移民及海关执法局之间也发生了数据共享。尽管反复建议加强隐私保护,但实施率仍然很低,这表明该系统被设计用于监控,而非公共服务。专家建议使用网络浏览器和 RSS 订阅源,而不是这些耗费大量数据的应用程序。
## 缺失的阶梯:人工智能与软件工程的未来
人工智能正在迅速自动化传统上由初级工程师执行的任务——这些任务对于培养基础技能、判断力和系统理解至关重要。虽然最初关于人工智能将“基本上”编写所有代码的预测并未完全实现(目前的估计范围在30-50%),但人工智能*正在*显著改变开发者环境,提高生产力,但也造成了关键的技能差距。
研究表明存在“监督悖论”:依赖人工智能可以*降低*学习效果,甚至会使经验丰富的开发者放慢速度,但开发者越来越不愿意在没有它的情况下工作。这种依赖威胁着未来高级工程师的培养,因为传统的学习过程——解决具有挑战性的任务——正在被绕过。
来自Anthropic等的数据显示,人工智能正在影响招聘,在人工智能相关岗位中,年轻专业人员的新工作开始数量明显下降。公司正在采用人工智能,但并未取代入门级职位,这表明未来可能长期缺乏能够有效监督人工智能生成代码和维护系统完整性的经验丰富的工程师。
解决方案并非仅仅是采用人工智能,而是积极重建“阶梯”——实施结构化的学习路径,优先考虑理解而非速度,将上下文视为重要的基础设施,并对人工智能的角色设定现实的期望,将其视为工具而非教师。核心挑战是确保我们继续培养能够监督和验证人工智能输出的工程师,否则我们将失去构建和维护复杂系统所需的专业知识。
目睹了社交媒体从早期以人为本的发展历程,作者对其目前的走向表示担忧。他们观察到,社交媒体正朝着自动化和武器化的方向转变,这得益于模仿真实互动的AI工具——它们撰写帖子和评论,*仿佛*是由真人创作的。
尽管运营着成功的时事通讯和播客,作者仍然将真实的互动置于“增长黑客”之上,珍视社交媒体作为分享想法和建立联系的空间。他们哀叹AI“声誉教练”的兴起,这些教练优先考虑产出和数据,而非真实的存在,从而助长了“有毒的激怒机器”。
作者倡导透明度,敦促人们识别并揭露自动化内容,并要求平台优先考虑信息而非人为制造的互动。他们强调*保持*在线存在的重要性,即使——甚至特别是在挣扎时,认为脆弱和诚实对于维护网络的社会结构至关重要。
Cherri 是一种新的编程语言,专为构建和维护 macOS 上的大型、复杂的“快捷指令”而设计。与直接在“快捷指令”应用内构建不同,Cherri 允许使用 CLI、VSCode 扩展或专用 macOS 应用进行桌面开发。
它旨在与“快捷指令”动作实现 1:1 映射,以便于调试,并具有包管理器(使用 Git 仓库)、类型检查、函数以及包含文件的功能。Cherri 优先创建优化后的“快捷指令”,以最大限度地减少尺寸和内存使用。
主要功能包括导入现有“快捷指令”、定义自定义动作和嵌入文件。它还处理通过 macOS 或备用服务器对“快捷指令”进行签名。安装方式包括 Homebrew、Nix 或直接下载。该项目的创建者强调了在“快捷指令”语言领域持续发展的必要性,并以此为基础,延续之前经常被废弃的努力。