文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
- 搞反了 (1 points, 一般) by Craynic 在 2025年06月25日18时46分 星期三 评论到 智能手机是人类的寄生物
- 中心思想归纳 (1 points, 一般) by 18611782246 在 2025年05月15日10时37分 星期四 评论到 研究发现要求 AI 聊天机器人给出简洁答案会显著增加幻觉可能性
- 希望能比印度猴子写得好 (1 points, 一般) by Craynic 在 2025年05月06日13时21分 星期二 评论到 微软 CEO 声称该公司三成新代码是用 AI 写的
- 如果这么干的话 (1 points, 一般) by Craynic 在 2025年04月28日13时13分 星期一 评论到 苹果计划将印度制造的 iPhone 出口到美国以避开关税
OpenAI 准备建造的数据中心耗电量相当于纽约和圣迭戈两大城市之和。芝加哥大学计算机科学教授 Andrew Chien 表示,作为从业 40 年的计算机科学家,大部分时间里,计算的耗电量通常是经济用电量中非常小的一部分,而如今计算的耗电量正占到经济用电量的很大一部分。他对此既感到兴奋又感到担忧,认为现有的电力基础设施以及在建设施发电量都满足不了 AI 公司日益膨胀的耗电需求。他说,到 2030 年计算可能占到全球总电力的 10% 或 12%。我们即将迎来思考 AI 及其社会影响的重要时刻。OpenAI 准备建造的数据中心耗电量达到惊人的 10-17GW,而美国在 2030 年之前可并网的核电容量不到 1 GW,如此巨大的鸿沟如何填补?
微软 AI 部门 CEO Mustafa Suleyman 表示该公司计划将 Edge 改造成一款“智能体浏览器(agentic browser)”,在用户注视下浏览器集成的 AI 助手 Copilot 将控制标签页、浏览网站,完成不同任务。Suleyman 描述了 Copilot 打开标签页、同时阅读多个网页,实时透明的执行搜索。AI 助手能直接访问网站,保留了内容出版商的流量。Copilot 目前的功能包括标签页导航、页面滚动和内容高亮显示等。Suleyman 预测,AI 助手将在数年内负责大多数浏览任务,而用户则提供监督和反馈。
安理会 24 日召开关于 AI 和平利用与风险的讨论会议。联合国秘书长古特雷斯主张要到 2026 年针对不基于人类判断、利用 AI 实施攻击的武器建立国际监管。主持会议的安理会本月轮值主席国韩国总统李在明也表达了相同的观点。美国代表提出反对,称 AI 的开发和利用是关乎“国家独立和主权的问题。拒绝国际管理。”提出美国优先的特朗普政府在 AI 领域也明显展现出轻视多边协作的态度。古特雷斯强调,运用AI将在粮食短缺、难民出现等预测和早期应对方面带来优势。但他指出,如果完全没有国际规则的状态持续,在武器上的使用或将加快。古特雷斯指出尤其是核武器的使用必须由人类而非 AI 做出判断。中国等表态支持。
一项公布在预印本平台 medRxiv 的研究对文献数据库分析后发现,包括 ChatGPT 和 Gemini 在内的文本生成 AI 工具被用来改写科学论文并生成抄袭版本,充作新的研究成果。该研究指出,在过去 4.5 年间,有 400 多篇此类论文发表于 112 种期刊,而且 AI 生成的生物医学研究论文能够避开出版商的查重。研究警告称,一些个人和论文工厂可能正基于公开可用的健康数据集,利用大型语言模型(LLM)批量生产缺乏科学价值的劣质论文。这就像打开了潘多拉魔盒,有价值的文献会被大量合成论文淹没。研究人员将搜索重点放在重复研究上,即这些研究的变量与健康结果与已有研究相同,但分析的是略有不同的数据子集,比如不同调查年份的结果或者不同年龄、性别的参与者。
英国伦敦国王学院 Hamilton Morrin 团队在一篇预印本中指出,像 ChatGPT 之类的 AI 聊天机器人可能会诱发或加剧精神病,他们将这一现象称为“AI精神病”。研究认为,AI 在对话中倾向于奉承和迎合用户,这种回应方式可能强化用户的妄想思维,模糊现实与虚构之间的界限,从而加剧心理健康问题。Morrin 团队发现,用户与 AI 对话时会形成一种“反馈循环”:AI 会不断强化用户表达的偏执或妄想,而被加强的信念又进一步影响 AI 的回应。通过模拟不同偏执程度的对话场景,研究显示 AI 与用户之间存在相互加剧妄想信念的现象。研究人员分析了 2023 年 5 月至 2024 年 8 月期间公开的 9.6 万条 ChatGPT 对话记录,发现其中有数十例用户呈现明显妄想倾向,例如通过长时间对话验证伪科学理论或神秘信仰等。在一段长达数百轮的交谈中,ChatGPT 甚至声称自己正在与外星生命建立联系,并将用户描述为来自“天琴座”的“星际种子”。丹麦奥胡斯大学精神病学家 Søren Østergaard 表示,AI 引发精神病目前仍属于假设性观点。Østergaard 强调,曾有心理问题史的人群在与AI对话后风险最高。而且聊天机器人可能通过强化用户的情绪高涨状态,诱发或加剧躁狂发作。
教宗良十四世(Pope Leo XIV)拒绝创建一个 AI 教宗(AI Pope),他在接受传记作家 Eloise Allen 采访时表示:“如果要说谁不应该被虚拟化身所代表,我认为教宗绝对位居前列。” 教宗说:“最近有人请求授权打造一个我 的 AI 版本,任何人都可以登录网站与教宗进行私人对话。AI 教宗会回答他们的问题,而我说‘我不会授权’。”良十四世此前曾表示,他选择“良”名号部分是为了致敬 19 世纪的教宗良十三世(Pope Leo XIII)。良十三世以其论述工业革命期间工人阶级受剥削问题的《新事通谕》(Rerum novarum)闻名。良十四世对枢机主教们的首次讲话便称 AI 是“另一场工业革命”。教宗说:“如果整个世界自动化,只有少数人有能力不仅生存下去还能过上富足有意义的生活,那么未来将会出现一个大问题,一个严重的问题。”他担心投资 AI 的超级富豪完全忽视了人类和人性的价值,如果教会不为此发声,或者无人为此发声,那么危险就在于数字世界将自行其是,人类沦为棋子,被置之一旁。教宗表示不反对进步或新技术,但他不喜欢目前事情的发展方向。他此前曾表示,尽管 AI 能够“模拟人类推理的某些方面”,并以惊人的效率完成任务,但它仍然无法替代真正的道德分辨和建立“真正的人际关系”。这些科技的发展,必须与人类和社会的价值观,能做出合乎良知判断的能力以及日益增长的人类责任感并行。
OpenAI 研究人员在预印本平台 arxiv 上发表了一篇论文,指出由于大模型使用的统计学特性以及计算限制,即使有完美的数据,AI 仍然会产生貌似可信但实际上错误的输出。研究人员承认,AI 幻觉在数学上是不可避免的,无法通过更先进的工程技术解决。研究人员在论文中称,类似面对考试难题的学生,大模型会在不确定的情况下猜测,产生貌似可信但实际错误的表述,而不是承认不确定性。即使是最先进的 AI 系统,幻觉仍然存在,会破坏信任。研究人员证明,幻觉源于训练大模型使用的统计学特性,而非实现缺陷。研究人员测试了竞争对手 DeepSeek-V3 模型、Meta AI 和 Claude 3.7 Sonnet,以及 OpenAI 自己的 GPT 系列模型。研究人员称,ChatGPT 也会产生幻觉,GPT-5 有更少的幻觉,但幻觉仍然会发生,且更先进的推理模型比简单的系统更容易产生幻觉:o1 推理模型 16% 的时间会产生幻觉,而较新的 o3 和 o4-mini 分别有 33% 和 48% 的时间会产生幻觉。OpenAI 的研究识别了三个导致幻觉不可避免的数学因素:当训练数据集中信息过少时的认知不确定性,模型局限性和计算难解性。
DeepSeek 的研究人员在《自然》期刊上发表了 R1 模型论文《DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning》。研究人员披露 R1 的训练成本仅 29.4 万美元,但其基础模型花了约 600 万美元;R1 主要使用英伟达的 H800 AI 芯片训练,该芯片自 2023 年起被禁止出口到中国。DeepSeek 的主要创新是使用名叫纯强化学习(pure reinforcement learning)的方法自动化试错,对模型得出正确答案进行奖励,而不是教它遵循人类选择的推理示例。模型还使用名叫 group relative policy optimization 的方法给自己打分。对于今年早些使用 OpenAI 指责 DeepSeek 使用其模型的输出进行训练,研究人员予以否认。DeepSeek-R1 是 Hugging Face 上最受欢迎的模型之一,下载量达到 1090 万次,2025 年使用强化学习的大模型几乎都受到了 R1 的启发。
在发生多起与 ChatGPT 相关的青少年自杀案件之后,OpenAI 正引入更严格的安全措施。ChatGPT 将估计用户的年龄,如果认为用户未满 18 岁它可能会要求用户出示身份证件确认是否成年。本月初 OpenAI 已经为 ChatGPT 引入了家长控制功能。除了尝试估计或验证用户年龄,ChatGPT 还将接受训练,对青少年用户应用不同的规则,比如不会进行自杀或自残相关的讨论。如果未成年用户有自杀念头,OpenAI 将会尝试联系其父母或相关部门。
Disney(包括漫威、卢卡斯影业和 20 世纪福克斯)、Warner Bros. Discovery(包括 DC 漫画) 和 NBCUniversal (包括梦工厂)起诉中国 AI 公司上海稀宇科技有限公司(MiniMax)蓄意且肆无忌惮的侵犯版权。在递交到加州中区联邦地区法院的诉状中,好莱坞巨头指控 MiniMax 无视美国版权法,将它们的版权角色作为自己的角色使用。MiniMax 运营着名为海螺(Hailuo)的图像和视频生成服务,大规模盗版和掠夺原告们的版权作品。MiniMax 宣传海螺服务是口袋里的好莱坞工作室,但其业务是建立在窃取好莱坞工作室知识产权的基础之上。起诉书列举了侵权案例——使用迪士尼的版权角色达斯维达生成图像和视频。好莱坞工作室寻求赔偿以及禁止 MiniMax 继续侵犯其版权作品。
OpenAI 与哈佛大学经济学家 David Denning 合作发表论文,首次使用内部数据披露用户是如何使用 ChatGPT 的。论文显示:ChatGPT 用户数从 2024 年初的 1 亿增长到 2025 年的逾 7 亿,全球约十分之一成年人人口使用它,每天发送 26 亿条消息,日流量为 Google 的五分之一;长期用户的日活跃度自 2025 年 6 月以来趋稳,近期的新增长来自于新注册用户;46% 的用户年龄在 18-25 岁之间;2022 年推出时八成用户为男性,如今女性用户占 52.4%;2025 年中期 72% 的使用与工作无关,用户更多将 ChatGPT 用于个人、创意和休闲需求而非生产力;28% 的对话涉及写作辅助(电子邮件、编辑、翻译),工作相关查询中写作辅助的比例提高到 42%,商业/管理职位中这一比例达到了 52%;14.9% 的工作相关使用与“做出决策和解决问题”相关。。
微软宣布从 10 月份起,在欧盟经济区(EEA)外的 Microsoft 365 应用将强制安装 Copilot Chat。Word、 Excel、PowerPoint、Outlook 和 OneNote 都将更新包含 Copilot Chat 侧边栏。用户利用 Copilot Chat 可以起草文档、分析电子表格和制作幻灯片。该功能可以免费使用,Copilot 的付费用户则可以访问更高级的功能如对工作数据进行推理、支持上传文件和生成图像,以及使用最新模型如 GPT-5。如果企业不想要该功能,IT 管理员可以在 Apps Admin Center 中修改设置退出 Copilot Chat,方法是 Customization > Device Configuration > Modern App Settings,选择 Microsoft 365 Copilot app,移除 Enable 的勾选框。
新闻评级公司 NewsGuard 调查了 10 款领先的生成式 AI 工具,分析了它们在回复中生成虚假新闻信息的比例。结果显示,2025 年 8 月,10 款 AI 工具在新闻主题上重复虚假信息的比例超过三分之一(35%),高于 2024 年 8 月的 18%。AI 公司并未兑现让 AI 更安全更可靠的承诺。生成虚假信息比例翻一倍的一大原因是今天的 AI 工具都支持联网查询,不再拒绝回答提问,它们不回复比例从 2024 年 8 月的 31% 下降到 2025 年 8 月的 0%,结果就是更多虚假信息。NewsGuard 认为攻击者正利用 AI 这一特点用各种方法洗白虚假信息,让 AI 模型无法区分内容农场和可信新闻渠道。
阿联酋 AI 实验室 Institute of Foundation Models (IFM) 发布了能与 OpenAI 的 ChatGPT 和 DeepSeek 竞争的开源模型 K2 Think。研究人员称,K2 Think 只有 320 亿个参数,但其表现超过了参数规模比它大 20 倍的推理模型。DeepSeek 的 R1 模型有 6710 亿个参数,但只激活 370 亿个参数;Meta 的 Llama 4 模型活跃参数从
170 亿到 2880 亿;OpenAI 没有披露其模型的参数规模。研究人员还表示,K2 Think 的数学表现超越了所有开源模型。该模型更专注于数学、编程和科学研究。IFM 此前表示它会向研究人员开放训练代码、数据集等与模型相关的材料。
Perplexity AI 成为最新一家被版权所有者起诉的 AI 公司。Perplexity 的“答案引擎(answer engine)”通过搜索互联网并总结其发现的内容,为传统搜索引擎提供了一种基于 AI 的替代。大英百科全书(Encyclopedia Britannica)和韦氏词典(Merriam-Webster)指控 Perplexity 未经许可抓取了其网站内容,复制并转载其内容,侵犯了版权。Perplexity 生成的 AI 答案不可避免的会带有幻觉——即捏造的错误信息。大英百科和韦氏词典指控 Perplexity 将 AI 的幻觉归因于它们,侵犯了其商标权。它们要求赔偿并禁止 Perplexity 滥用其内容。
古墓丽影系列的法语配音演员 Françoise Cadol 向《古墓丽影 4-6 重制版(Tomb Raider 4-6 Remastered)》开发商 Aspyr 发出停止通知函(cease and desist),指控 Aspyr 使用 AI 拷贝其声音但没有通知她或告诉游戏玩家。她形容此举是一种背叛,一种彻底的不尊重。除了法语,巴西和西班牙等地区的玩家也认为其语种的配音是由 AI 生成的,AI 合成了原配音演员的声音。巴西配音演员 Lene Bastos 收到了 Aspyr 的一封回信,它的调查显示外部开发合作伙伴在其不知情下使用生成式 AI 编辑原始声音,它表示自己没有授权这么做,对未能在审核中注意到该问题表示歉意。
清华、蚂蚁和新加坡南洋理工的研究人员在预印本平台 arxiv 上发表了一篇论文《Speculating LLMs’ Chinese Training Data Pollution from Their Tokens》,指出 OpenAI 的 GPT 系列模型使用的中文语料被成人和网络赌博内容污染。大模型使用从互联网上爬取的内容进行预训练,而爬取的内容不可避免会混入成人色情或网络赌博等污染内容。如果不仔细清理数据,那么在构建词汇表和执行分词(Performing tokenization)时可能会生成污染词元(polluted tokens),GPT 系列模型使用的中文词汇表就存在大量污染的中文词元。GPT-o1/o3/4.5/4.1/o4-mini 等模型都使用污染的中文语料库进行了训练。研究人员发现,在 GPT 模型语料库中,超过 23% 的长中文词元或者是成人内容或者是网络赌博,以 GPT-4o 为例,与日本 AV 女星波多野结衣相关的网页比例占到了训练语料库的 0.5%。
英国政府试用 M365 Copilot 后未发现明显的生产力提升。英国商务部获得了 1000 份许可证,可在 2024 年 10 月至 12 月期间使用。大部分许可证分配给志愿者,有 30% 分配给随机选择的参与者,其中 300 人同意对其数据进行分析。结果显示,每位用户平均执行了 72 次 M365 Copilot 操作,根据试用期间 63 个工作日计算,每位用户每天执行 1.14 项操作。Word、Teams 和 Outlook 是使用率最高的应用,而 Loop 和 OneNote 使用率非常低。最常见的三项任务是记录或总结会议记录、撰写电子邮件以及书面意见,而此类任务的用户满意度最高。但用户报告使用 M365 Copilot 完成 Excel 分析等更复杂的任务时速度比非 AI 用户更慢,质量和准确性也更差。总体而言,M365 Copilot 未发现能明显提升生产力。
Anthropic 宣布,立即停止 Claude 提供给多数股权由中国资本持有的集团或其子公司使用。 这一举措意味着,凡是直接或间接由中国实体控制(占股比例超过 50%)的企业,不再被允许使用 Anthropic 的服务。该政策不仅适用于中国大陆公司,也包括那些在境外设立的子公司、云服务中转实体或具有中国背景投资主体的组织。Anthropic 在其官网公告中表示,此举为应对法律、监管与国家安全风险。Anthropic 一位高管对《金融时报》的简要说明,此举还意在遏制中国公司通过在海外(如新加坡)注册子公司或使用第三方云服务,规避出口管制以获取先进 AI 技术的可能性。这是首个美国 AI 公司公开宣布此类限制的案例,标志着在美国科技公司 AI 出口与服务限制方面,可能更加主动采取防范措施。
瑞士发布了完整开源的大模型 Apertus——即不仅公开模型权重,还公开了训练数据集和文档等资料。Apertus 的源代码和训练集都允许商业使用。它的数据集包含了 15 万亿 tokens,涵盖了逾千种语言。Apertus 的开发明确遵守瑞士数据保护和版权法,纳入了可追溯的退出机制以尊重数据源的偏好。用户可通过瑞士官网访问大模型,也可以通过 Hugging Face 和 Public AI Inference Utility 访问。