启用 JavaScript 和 Cookie 以继续。
启用 JavaScript 和 Cookie 以继续。
## “头部激活剂”之谜 20世纪70年代,德国生物学家希尔德加德·“奇卡”·沙勒声称从水螅——一种具有惊人再生能力的简单淡水生物——中分离出一种“头部激活剂”分子,并认为它会触发头部生长。她的发现引发了兴奋,将发育生物学和分子生物学领域交织在一起,并为理解形态发生提供了潜在的关键。沙勒甚至测序了这种肽,并将其提供给研究人员。 然而,复制她的结果被证明是不可能的。尽管进行了无数次尝试,斯蒂芬·伯金和查尔斯·戴维等科学家未能重现她的发现,导致怀疑,并最终放弃了这项研究。虽然水螅在其他研究中仍然很有价值,但“头部激活剂”却成了一个科学谜团。 这场争议深刻地影响了相关人员,特别是沙勒和维尔纳·穆勒,一位公开质疑她工作的生物学家。他们的专业冲突升级为欺诈指控和一场持续了数十年的痛苦争端,最终穆勒出版了一本书,详细讲述了他的版本。 最终,2010年水螅基因组测序表明,这种肽序列甚至没有编码在水螅的DNA中,进一步否定了最初的发现。这个故事突出了科学的演变本质、可重复性的挑战以及科学辩论可能造成的个人代价,留下沙勒测序的肽的来源——以及“头部激活剂”背后的真相——未解。
本研究调查了使用大型语言模型(LLM)进行论文写作对认知活动和表现的影响。研究人员比较了使用LLM、搜索引擎或仅依靠自身知识的参与者的大脑活动(通过脑电图)和论文质量。 研究发现,使用LLM与大脑连接减少相关,表明写作过程中认知参与度降低。最初使用LLM的参与者在切换到无辅助写作时表现出参与度不足的迹象。相反,初次使用LLM的参与者表现出与使用搜索引擎相似的大脑活动增加。 重要的是,LLM用户对自己作品的所有权感最低,并且难以准确回忆自己的写作内容。随着时间的推移,LLM用户在神经、语言和行为指标方面持续表现不佳。研究结果表明,虽然LLM很方便,但依赖它们可能会付出认知代价,引发对其对学习和批判性思维技能的长期影响的担忧。
## APL、Lisp 与富有表现力的编程追求
在20世纪50年代和60年代,富有表现力的编程语言的探索出现了两条平行路径:Lisp 和 APL。Lisp 源于列表处理,强调语义优雅——将代码视为数据;而 APL 由 Kenneth Iverson 创建,则优先考虑语法密度,采用一种独特的、类似象形文字的符号来简洁地表示复杂的思想。
两种语言都拥有极简的核心,依赖于单一的基本数据结构(Lisp 的列表,APL 的数组)和函数式原则。尽管理念不同——一个用于符号推理,另一个用于数学交流——它们的创建者曾考虑将它们结合起来,但未能达成共识。
Iverson 的思想深刻地影响了现代数组编程,尤其是在 NumPy、PyTorch 和 TensorFlow 中,它们利用了 APL 最初开发的广播和向量化等概念。Iverson 的学生 Arthur Whitney 最终通过 K 弥合了差距,K 是一种继承了 Lisp 和 APL 的语言。K 发展为拥抱 Lisp 的嵌套列表,实现了两种语言优势的综合。一个简洁的 Python 实现展示了如何通过标量扩展实现核心 APL 概念,突出了 Iverson 的“符号作为思维工具”的持久力量。
这个仓库包含BitCraft的开源服务器端代码,BitCraft是由Clockwork Labs开发的一款社区驱动的沙盒大型多人在线角色扮演游戏。BitCraft专注于协作游戏体验——建造、制作、探索和管理一个共享的、程序生成的世界。
这个初始版本允许公开检查、实验和贡献服务器逻辑,该逻辑使用SpacetimeDB构建(同样是开源的)。它*不*包含游戏客户端或官方游戏的连接工具。
欢迎贡献,尤其是在正确性、稳定性和玩家体验方面。漏洞赏金计划会奖励对已验证漏洞的私密报告。
代码采用Apache 2.0许可,允许修改和用作学习资源,甚至可以创建具有原创资源的类似项目。但是,禁止使用BitCraft的资源、知识产权或运营竞争服务器。对这个仓库的更改将*不会*影响正式的BitCraft服务器。
内联视口标准 TUI 在退出时会擦除自身。你精心格式化的 CLI 输出会消失。用户会丢失他们的滚动历史。内联视口解决了这个问题。它们占据固定数量的行,渲染丰富的 UI,然后在完成时将输出保留在原位。非常适合微调器、菜单、进度指示器——任何短暂的丰富时刻。 class Spinner def main RatatuiRuby.run(viewport: :inline, height: 1) do |tui| until connected? status = tui.paragraph(text: "#{spin} 连接中...") tui.draw { |frame| frame.render_widget(status, frame.area) } return ending(tui, "已取消!", :red) if tui.poll_event.ctrl_c? end ending(tui, "已连接!", :green) end end def ending(tui, message, color) = tui.draw do |frame| frame.render_widget(tui.paragraph(text: message, fg: color), frame.area) end def initialize = (@frame, @finish = 0, Time.now + 2) def connected? = Time.now >= @finish def spin = SPINNER[(@frame += 1) % SPINNER.length] SPINNER = %w[⠋ ⠙ ⠹ ⠸ ⠼ ⠴ ⠦ ⠧ ⠇ ⠏] end Spinner.new.main; puts
AdGuard已经开源了TrustTunnel,这是其AdGuard VPN服务所使用的VPN协议,兑现了长期以来对社区的承诺。TrustTunnel被设计为OpenVPN和WireGuard等现有协议的现代、安全且移动设备优化替代方案,这些现有协议通常很容易被检测和阻止。 与传统的VPN不同,TrustTunnel使用TLS加密和HTTP/2或HTTP/3与常规HTTPS流量融合,使其更难被限制或阻止,同时保持速度和安全性。它针对移动网络和不稳定连接进行了优化。 此次发布包括协议规范、完整的服务器和客户端代码(适用于Linux、Windows、macOS、iOS和Android),采用宽松的许可协议,允许任何人使用、审计和贡献。AdGuard希望TrustTunnel能够被广泛采用,甚至被其他VPN提供商采用,从而促进协作的开源环境并改进所有人的VPN技术。用户现在可以完全理解AdGuard VPN背后的技术,并受益于灵活的路由规则和透明的请求日志等功能。
## 构建一个用于并行计算的微型PC集群:摘要
该项目详细介绍了使用二手联想Tiny PC运行Ubuntu Server构建小型并行计算集群的过程。目标是学习如何将计算密集型R模拟,特别是目标最大似然估计(TMLE),分配到多台机器上,以减少与单台笔记本电脑或云解决方案相比的运行时间。
设置包括安装Ubuntu、配置无密码SSH以实现节点之间无缝通信,以及通过SSH自动化软件包安装。然后将R脚本分发到每个节点以利用多核处理。使用不同的交叉验证折叠(CV5与CV10)和各种SuperLearner模型比较了性能。
结果表明,与单机处理相比,集群的性能有了显著提高。增加CV折叠可以减少偏差,但略微增加方差。调整后的xgboost与glmnet结合,在偏差、方差和覆盖率之间表现出最佳平衡。
该项目强调了进一步开发的机遇,包括创建可重用的集群管理软件包、添加进度监控和ETA估计,以及探索openMPI以进行更高级的并行化。关键经验教训包括有效使用`sprintf`进行系统命令,以及在`future_lapply`中设置种子以获得可重复性的好处。
## 关于大型语言模型的“平淡”真相 当前人工智能的讨论两极分化:要么大型语言模型(LLM)将彻底自动化所有知识型工作,要么它们只是被过度炒作的“随机鹦鹉”。本文认为,应该采取更冷静、因此也更不激动的观点——LLM是一种重要的*生产力*工具,类似于过去的科技变革,但不太可能导致广泛的经济崩溃。 LLM代表了另一层抽象,就像从汇编到Python编程的转变。虽然这通常会提高个人产出,但通常不会整体消除工作岗位。关键技能不是语法(现在由LLM处理),而是精确、系统的思维——这是LLM无法教授的。 影响可能主要体现在明确定义的任务中(总结、按规范编码),而模糊、依赖上下文的工作(战略、复杂谈判)——需要不成文的知识和判断力——仍然主要由人类驱动。LLM部署的三年里,这些模糊角色的就业并没有崩溃。 此外,大规模失业的说法与对劳动密集型行业(如医疗保健)持续高成本的预期相悖。如果由于人工智能导致劳动力成本*下降*,这些行业最终应该会看到价格稳定。 最终,最有可能的结果是劳动力重新分配,一些工人将转向仍然需要人类存在的行业,反映了历史上技术调整的模式。虽然LLM具有影响力,但期望它们引发一场独特的灾难性转变可能是一种过度反应。