让ChatGPT选择一个1到10000之间的数字,它通常会选择7200到7500之间的数字。
Ask ChatGPT to pick a number from 1-10000, it generally selects from 7200-7500

原始链接: https://old.reddit.com/r/ChatGPT/comments/1rz2ooh/i_am_betting_my_house_that_if_you_ask_gpt_to_pick/

您的请求已被阻止,原因是网络策略。请登录或在此处创建帐户以恢复浏览。如果您正在运行脚本或应用程序,请在此处注册或使用您的开发者凭据登录。此外,请确保您的User-Agent不为空,并且是独特且具有描述性的,然后重试。如果您正在提供替代的User-Agent字符串,请尝试改回默认设置,因为这有时会导致阻止。您可以在此处阅读Reddit的服务条款。如果您认为我们错误地阻止了您,或者想讨论更轻松地获取所需数据的方式,请在此处提交工单。联系我们时,请提供您的Reddit帐户以及以下代码:019d0f38-07bf-743c-b65f-a319ffb85e21。

## LLM 随机性问题与偏见 最近Hacker News上的讨论强调了大型语言模型(LLM),如ChatGPT、Claude和Gemini,在生成随机数时存在一致的偏见。用户普遍报告称,当被要求生成1-10000之间的数字时,这些模型总是选择7200-7500之间的数字。 这不仅仅是一个怪癖,它指出了LLM“创造力”中更深层次的问题。这些模型并非真正随机,而是根据训练数据中的模式生成输出。这种偏见超出了数字范围,影响到写作和图像生成等创意任务,导致内容同质化且缺乏灵感。 有几个因素导致了这种情况:LLM之间共享的训练数据、实现真正个性化的困难以及模型避免极端或模式的倾向。一些人建议的解决方案包括改进个性化技术,以及将人工智能的角色从*创建*内容转变为*辅助*人类创作者使用工具。最终,这场讨论强调了当前LLM的局限性以及它们可能在数字领域降低原创性的潜力。
相关文章

原文
Blocked

Your request has been blocked due to a network policy.

Try logging in or creating an account here to get back to browsing.

If you're running a script or application, please register or sign in with your developer credentials here. Additionally make sure your User-Agent is not empty and is something unique and descriptive and try again. if you're supplying an alternate User-Agent string, try changing back to default as that can sometimes result in a block.

You can read Reddit's Terms of Service here.

If you think that we've incorrectly blocked you or you would like to discuss easier ways to get the data you want, please file a ticket here.

When contacting us, please include your Reddit account along with the following code:

019d0f38-07bf-743c-b65f-a319ffb85e21

联系我们 contact @ memedata.com