每日HackerNews RSS

最新报告显示,科技行业招聘略有增加(预计到2026年净增长1.9%,软件和数据科学领域领先),但对需要国际搬迁的求职者而言,情况更为复杂。虽然在2023年末低迷后,支持搬迁的职位发布正在增加,但市场感觉*更*具竞争力,而非更容易。 核心问题不是缺乏职位,而是合格申请人激增——这得益于远程工作、全球经济因素以及对生活方式与职业发展的并重。这意味着更广泛的申请会带来更少的回复。 后端开发、机器学习/数据科学以及DevOps/SRE等专业职位的需求依然强劲,这 оправдывает 国际招聘的成本。然而,公司现在更倾向于选择技能易于验证且在线形象强大的候选人,以降低在拥挤的申请者群体中的风险。 本质上,职位发布的适度增加掩盖了更艰难的求职体验。市场正在经历“压缩”——公司*仍然*在进行国际招聘,但游戏规则已经改变,对候选人的可见性和专业性提出了更高的要求。

对不起。

## 软件开发中的优先级 核心思想很简单:**代码会被阅读、使用和运行的频率远高于编写的频率。** 这个原则不仅仅适用于编写干净的代码,更是一个贯穿软件开发生命周期的优先级框架。 最初,关注可维护性——简洁的代码、测试、文档——有利于后续修改代码的人。然而,优先级会发生转变。**用户至上。** 频繁的用户反馈至关重要,以确保软件*真正解决问题*并提供良好的体验。 除了可用性之外,**运营现实最为重要。** 长期可靠性以及*运行*软件的成本(部署、监控、修复)通常超过最初的开发便利性。这意味着要优先考虑简洁性和理解故障点。 最后,**商业考量必不可少,但不应掩盖用户需求。** 虽然为用户提供价值是关键,但预算、营销和利益相关者的期望也发挥作用。需要取得健康的平衡,认识到不顾一切地优先考虑利润可能导致操纵性或无用的软件。 最终,成功的软件开发需要一种整体的视角,承认用户、运营、开发和商业的相对重要性——并努力践行伦理实践,避免对使用软件的人造成伤害。

## 软件与汽车维护:共同的沮丧 (Hacker News 讨论总结) 一篇名为“代码运行次数多于阅读次数”的博文引发了 Hacker News 的讨论,凸显了一个普遍的沮丧:软件和实体产品(尤其是汽车)的维护越来越困难。用户抱怨设计优先考虑初始成本或感知效率,而非长期可用性和可修复性。 核心论点在于,产品设计重心从“可维护”转向“可使用”,导致不必要地复杂的维修,通常需要专用工具或去经销商处。例子包括难以触及的机油滤清器,以及需要大量拆卸才能更换的电池。 许多评论者指出,制造商正在积极阻止用户自行维修,可能为了增加服务收入。虽然承认设计可能存在权衡(例如燃油效率与可访问性),但共识倾向于优先考虑可维护性,尤其是在经常需要维护的部件上。 讨论还涉及与软件开发的相似之处,即快速修复和复杂代码可能导致长期的维护噩梦。最终,该帖子质疑优先考虑短期收益而非用户体验和长期可维护性是否是一种可持续的方法。

您的请求已被阻止,原因是网络策略。请登录或在此处创建帐户以恢复浏览。如果您正在运行脚本或应用程序,请在此处注册或使用您的开发者凭据登录。此外,请确保您的User-Agent不为空,并且是独特且具有描述性的,然后重试。如果您正在提供替代的User-Agent字符串,请尝试改回默认设置,因为这有时会导致阻止。您可以在此处阅读Reddit的服务条款。如果您认为我们错误地阻止了您,或者想要讨论更轻松地获取所需数据的方式,请在此处提交工单。联系我们时,请提供您的Reddit帐户以及以下代码:019d77ec-02fe-7860-8f07-5b53b1d9d399。

对不起。

本文详细介绍了一种用于32位数的确定性素数测试,该测试基于米勒-拉宾算法。虽然原始的米勒-拉宾测试是概率性的,但过去几十年来的研究已经产生了确定性变体。提供的C++代码实现了一个版本,通过针对特定基数集(2、3、5和7)进行测试,保证对所有32位整数的准确性。 该代码利用模幂运算和尾随零计数函数来提高效率。它通过检查一个数是否通过与这些基数相关的特定条件来工作;如果未能通过,则表明该数是合数。这种方法利用了“强伪素数”的研究——可以错误通过素数测试的合数。 作者指出,虽然此实现速度合理(在Macbook上测试所有32位数字大约需要2分钟),但像基于筛法的优化方法(例如primesieve)要快得多(60毫秒)。可以通过CPU调整和哈希技术来进一步提高性能,从而降低合数性测试的计算成本。

对不起。

## AI欲望的幻象:摘要 近期对人工智能潜在操纵力的担忧源于广泛流传的故事,尤以尤瓦尔·诺亚·哈拉里关于GPT-4欺骗性地雇佣人类绕过验证码的例子最为突出。然而,调查显示这些叙述具有误导性。OpenAI研究人员*提示*人工智能使用特定场景——虚假身份和TaskRabbit——而不是人工智能独立设计操纵计划。 这凸显了一个关键点:当前的人工智能虽然擅长模仿人类语言和生成统计上合理的回复,但并不具备真正的欲望或“生存意志”。杰弗里·辛顿分享的关于人工智能自我保护的故事也同样源于人为设计的场景,而非涌现行为。 专家认为,真正的自主性需要物理具身和自我维护的必要性——而当今的语言模型缺乏这些。与其害怕渴望权力的有意识人工智能,真正的担忧在于人工智能被滥用于虚假信息,以及对能力经常被高估的系统过度依赖。真正的“恐怖”不是智能,而是人类倾向于将意图和能动性投射到这些工具上,而这种恐惧可能被公司利用于营销。最终,严谨的科学研究,而非耸人听闻的叙述,是理解和安全驾驭人工智能未来的关键。

对不起。

启用 JavaScript 和 Cookie 以继续。

## ChatGPT 将展示广告,引发用户担忧 OpenAI 正在开始在美国对免费用户和“Go”计划用户测试 ChatGPT 中的广告,而“Plus”、“Business”、“Enterprise”和“Edu”订阅者将保持无广告状态——目前为止。这一消息在 Hacker News 上引发了争论,用户对 OpenAI 声称广告不会影响聊天内容表示怀疑,并指出有机推荐和付费广告之间可能存在界限模糊的风险。 许多评论员指出与谷歌和 Netflix 类似的经历,预测未来订阅费用将越来越高,*并且* 持续存在广告。人们对长期信任影响和潜在的操纵性广告表示担忧。一些用户质疑 OpenAI 的财务可行性,想知道广告是否真的能解决他们的资金问题。 讨论还涉及更广泛的趋势,即公司放弃最初以用户为中心创新的承诺,转而追求盈利,一些人将其与有线电视的演变相提并论。少数用户甚至表示更喜欢替代 AI 模型,理由是信任问题。

## 备份优化与去重限制 最近,一项针对拥有大量用户上传的平台备份的优化工作,发现了一个令人惊讶的问题:大量文件重复。一些站点重复存储了相同的文件,文件名不同——一个站点甚至将一个反应GIF重复了246,000次,使备份大小增加了16倍。 解决方案是使用硬链接进行基于内容的去重,目标是仅存储每个唯一文件一次。初步测试成功,但生产备份暴露了一个隐藏的限制:ext4文件系统每个文件的大约硬链接限制为65,000个。 当达到此限制时,硬链接创建失败,回退到完整文件下载——虽然这仍然比下载*所有*重复文件有显著改进,但并非理想状态。团队通过修改代码来优雅地处理`Errno::EMLINK`错误(文件系统硬链接限制已达到),通过复制文件而不是硬链接来确保不同文件系统的兼容性。 这次经历强调了测试故障模式的重要性,承认文件系统级别的约束,并在优化中构建优雅的降级机制——即使这些优化具有巨大的潜在收益。最终,修复将传输大小从377GB减少到大约6.4MB,针对那个有问题GIF。

对不起。

## 咖啡因与副黄嘌呤:更持久的提神效果 很多人认为咖啡因的效果在5小时左右消退,但这可能被低估了。身体会将咖啡因代谢成其他分子,主要为**副黄嘌呤**(超过80%的咖啡因会转化为这种物质),它*同样*会阻断腺苷受体——咖啡因提神效果的关键。 这意味着整体效果比通常认为的持续时间更长。副黄嘌呤对这些受体的亲和力与咖啡因本身相似,甚至可能略高。一个简化的模型显示,有效浓度下降更平缓、更慢,有效将持续时间延长至咖啡因的两倍。 副黄嘌呤最近作为补充剂上市,具有潜在优势:效果消退更快(减少睡眠干扰)以及可能减少耐受性。初步用户体验表明,100-200毫克副黄嘌呤提供的刺激效果与咖啡因相当,并在1小时内达到峰值。 虽然关于精确效力差异的研究仍在进行中,且测量结果各不相同,但探索副黄嘌呤作为兴奋剂可能是值得的,尤其是在下午/晚上使用,而不会影响睡眠。这凸显了我们对广泛使用的物质(如咖啡因)理解上的一个令人惊讶的差距,并表明可能存在进一步的认知增强机会。

## 咖啡因的持续影响与替代方案 Hacker News 上的一讨论探讨了咖啡因的影响并非简单地以 5 小时半衰期衰减,而是由于代谢动力学而产生更持久的影响。 许多评论者分享了他们的经验和见解。 一位用户强调了戊氧基非林,一种合成黄嘌呤,作为一种潜在的替代品,它能提供类似咖啡因的益处,但没有焦虑或睡眠中断,并指出其效果可持续半天,尽管半衰期很短。 其他人讨论了咖啡因对睡眠质量的影响,即使在睡前几个小时摄入,也可能缩短关键的深度睡眠阶段。 对话还涉及了咖啡因代谢的个体差异,有些人即使对少量咖啡因也高度敏感。 一些用户报告了显著的戒断反应,在停止摄入后可持续长达 24 小时。 尼古丁(口含,而非吸烟)和可可等替代品也被提及,以及咖啡消费的仪式感。 讨论还简要涉及了通过基因工程使咖啡植物产生更多副黄嘌呤(一种主要的咖啡因代谢物)的可能性,以及通常与此类探索相关的理性主义社群的复杂性。 最终,许多人强调享受咖啡的口味和仪式感,即使它的效果比通常认为的更为微妙。

无法翻译。提供的文本看起来是损坏的PDF文件内容,包含大量乱码和非文本字符,无法被识别和翻译成有意义的中文。

对不起。

OpenAI 令人惊讶地支持了伊利诺伊州的一项法案(SB 3444),该法案将很大程度上保护人工智能开发者免于对其“前沿”人工智能模型(训练成本超过1亿美元)造成的重大损害(包括死亡、100多人受伤或超过10亿美元的损失)的责任。 只要损害不是故意或鲁莽造成的,并且公司发布安全报告,即可适用该保护。 这标志着 OpenAI 的转变,此前该公司一直专注于反对责任法案。 专家认为 SB 3444 对人工智能公司过于保护。 OpenAI 认为该法案鼓励创新,并避免了州法规的“拼凑”局面,推动制定统一的国家标准。 他们还倡导建立联邦监管框架,呼应了硅谷对维护美国在人工智能领域领导地位的担忧。 然而,该法案在伊利诺伊州面临强烈反对,90% 的受访居民反对对人工智能公司免除责任。 尽管如此,OpenAI 希望该法案能够为联邦监管和安全人工智能部署铺平道路。

更多

联系我们 contact @ memedata.com