## Gemma Gem:您的本地AI助手
Gemma Gem 是一款 Chrome 扩展程序,它将强大的 AI 助手直接带入您的浏览器,由 Google 的 Gemma 4 模型提供支持。它完全在您的设备上运行——无需互联网连接或 API 密钥——利用 WebGPU 进行快速、私密的处理。
安装后(需要下载约 500MB),Gemma Gem 可以阅读网页、与元素交互(点击按钮、填写表单),甚至执行 JavaScript。您可以通过浏览器中的图标访问它,并通过聊天界面进行交互。
该扩展程序通过内容脚本、服务工作线程和托管模型的离屏文档系统工作。它提供截图捕获、文本提取和页面滚动等工具,所有这些都可以通过自然语言控制。
用户可以自定义 AI 的“思考”过程,并管理上下文清除和特定站点禁用等设置。提供开发版本和生产版本,详细日志可通过 Chrome 的扩展程序检查工具访问。
## 本地多模态记忆:用搜索查找任何内容
这个工具允许您使用自然语言创建本地、可搜索的文件数据库——包括图像、音频、视频、PDF 和文本。只需嵌入您的文件,然后使用描述性查询*查找*它们,即使没有任何现有的元数据或标签。例如,搜索“团队晚餐”将显示相关的照片!
它由 Gemini Embedding 2(免费版本)和 ChromaDB 提供支持,所有内容都存储在您本地机器上以保护隐私。设置过程经过简化,并配备了一个动画向导,Raycast 扩展程序提供带有缩略图的即时视觉搜索。
**主要特点:**
* **跨模态搜索:** 无缝处理所有文件类型。
* **本地和私密:** 数据保留在您的机器上。
* **易于设置:** 动画向导引导您完成整个过程。
* **Raycast 集成:** 从您的启动器进行快速视觉搜索。
**开始使用:** [https://github.com/hughminhphan/vector-embedded-finder](https://github.com/hughminhphan/vector-embedded-finder)
## GuppyLM:一个小型、可训练的语言模型
GuppyLM是一个拥有900万参数的语言模型,旨在证明构建自己的LLM并不需要大量的资源。它使用单个Colab笔记本和最少的训练时间(约5分钟)创建,展示了语言模型的内部运作——从数据到输出,使其不再像一个“黑盒子”。
该模型体现了一条名为Guppy的小鱼,用简短的、小写的句子交流,专注于它的水生世界:水、食物和鱼缸生活。它故意缺乏对复杂人类概念的理解。
GuppyLM在6万条合成对话上进行训练,涵盖60个主题,利用简单的香草Transformer架构。该项目优先考虑简单性,放弃了像GQA或RoPE这样的高级技术,以保持小规模的清晰度和效率。
代码和预训练模型已在HuggingFace上公开提供,允许任何人进行实验并直接与Guppy聊天。它是一个实际的例子,证明即使没有博士学位或巨大的计算能力,LLM的创建也是可行的。