## Shimmer:保护隐私的近距离设备发现 Shimmer是一种新的发现附近设备的方法,*无需*暴露精确位置或直接通信。它通过密码学方式比较观察到的环境——例如WiFi网络、蓝牙信标,甚至共同兴趣——使用局部敏感哈希(LSH)。设备不会广播所见的网络,而是创建指示共享环境的“指纹”。 该过程包括从观察到的数据创建MinHash签名,然后使用LSH将相似的签名分组到“桶”中。匹配的桶表明设备彼此靠近。数据在向“汇聚”服务器广播之前进行加密,确保服务器无法学习特定的网络细节,而只知道哪些设备共享环境。 虽然Shimmer提供了一种注重隐私的地理位置替代方案,但它也存在挑战。汇聚服务器*可以*学习IP地址的近似位置,并且如果被观察和复制,环境可能会被伪造。潜在的解决方案包括轮换标识符(例如Google的Eddystone-EID)和去中心化汇聚选项。它使用libp2p实现,并提供私有集合交集和可配置过期草图等功能。潜在的应用场景包括基于位置的游戏、会议社交和物联网配置。
## Meta Segment Anything Model 3 (SAM 3) 摘要
Meta 发布了 Segment Anything Model 3 (SAM 3),这是图像和视频理解方面的一项重大进展。这个统一的模型擅长使用文本、示例或视觉提示来检测、分割和跟踪对象,提供了前所未有的灵活性。除了 SAM 3,他们还推出了 **SAM 3D**,用于从单张图像重建 3D 对象和人体,以及 **Segment Anything Playground**,一个用户友好的平台,用于试验这些 AI 功能。
主要功能包括改进了文本和图像提示的性能,以及一个新的基准数据集 **SA-Co**,用于评估概念分割。SAM 3 已经为 Meta 产品中的功能提供支持,例如 **Facebook Marketplace 的“在房间中查看”**,并将很快增强 **Instagram 的 Edits、Vibes 和 meta.ai** 中的创作工具。
此外,SAM 3 正在通过与 **Conservation X Labs 和 Osa Conservation** 的合作,帮助科学研究,提供用于野生动物监测的数据集。Meta 强调开放科学,发布模型权重、代码,并鼓励社区贡献以进一步完善和扩展这些强大的 AI 工具。
## 西兰花人 重制版:AI 创作
受启发于 2010 年在谷歌内部流传的一段广受欢迎的视频,“西兰花人”最近由一位开发者使用前沿 AI 工具——Veo 3.1 和 Nano Banana——在一天之内重制。该项目的目标是捕捉原视频的精神,它以幽默的方式展现了谷歌软件开发的 frustrations。
该过程包括编写剧本、使用 AI 生成视觉效果,以及使用 CapCut 进行大量的后期制作编辑。Nano Banana 用于创建原始角色和背景的逼真版本,而 Veo 生成了视频片段。尽管存在时长限制、角色一致性以及实现所需情感表达(“EMOTE!”)等挑战,但 AI 工具证明了其令人惊讶的能力,尤其是在保持视觉一致性方面。
创作者强调了该过程的迭代性,需要多次拍摄和提示调整。虽然承认结果并非“电影”,但该项目展示了 AI 增强创造力的力量,并使传统电影制作方法难以实现的个人项目成为可能。最终,这次重制成功地唤起了怀旧之情,并将“西兰花人”介绍给了一代新的谷歌员工。