超智能治理 |你知道有些事情不对劲了 | 一图周刊 2023 05 22 AI 精选
超级智能治理
作者: OpenAI 原文链接
未来的AI系统将比AGI更具能力,因此需要考虑超级智能的治理。
今天 5月22日 OpenAI 发布了一篇博文,提出了关于超级智能(superintelligence)治理的讨论,超级智能是指比现有的人工智能(AI)甚至最牛的通用人工智能 AGI 更为先进、更具能力的未来AI系统。
文章提到,考虑到现在的情况,可以预见,在接下来的十年内,AI系统的技能水平将超越大部分领域的专家水平,产出的活动将与现在最大的公司相当。
这篇文章让我想起了另外一篇极具“标题党“风格的报道 👇
当技术男开始要求新的法规时,你知道肯定有事情发生了 | John Naughton
作者: John Naughton 原文链接
OpenAI 的 Sam Altman 要求美国政府进行监管干预,以减轻 AI 风险。他认为可以实施许可和测试要求,以开发和发布 AI 模型。Altman 相信,像他这样的公司可以与政府合作,遵守安全要求,促进更新并研究全球协调机会。他在美国参议院关于 AI 的听证会的开幕日发表了这番评论,参议员们向 OpenAI 首席执行官提问。观察家认为,这次讲话标志着立场的改变,突显了 AI 的增长和对更多行业监管的需求。
上期周报中我已经分享过使用 Claude 100K 长文总结 Altman 听证会视频的内容了,如果你没有收到,就检查下垃圾邮件箱吧。🤔
AI将取代一些工作,但大规模失业并非不可避免 | 艾琳·林
作者: 原文链接
AI教父杰弗里·辛顿从谷歌辞职,警告机器学习的危险。IBM暂停招聘AI可能取代的工作,而英国电信宣布到2030年将削减多达55,000个工作岗位,其中约10,000个预计将被AI取代。然而,正确的政策和终身学习可以使人类与AI共同工作,取得更好的成果。
蒂姆尼特·格布鲁谈谷歌解雇事件、AI的危险和大科技公司的偏见
作者: John Harris 原文链接
人工智能 "影响着全世界的人们,而他们却没有发言权来决定如何塑造它 "
出生于埃塞俄比亚的计算机科学家和AI专家蒂姆尼特·格布鲁(Timnit Gebru)因指出AI系统中的不平等和偏见而被解雇。格布鲁拥有多年的科技公司工作经验,她声称许多AI系统可能建立在偏见和权力失衡的基础上。她主张人们在决定是否使用这些系统时要有主动权,因为人们对AI的危险感到担忧。
从头完整构建大型语言模型Langchain应用
作者: Mostafa Ibrahim 原文链接
本文深入探讨了构建完整的大型语言模型 LangChain 应用程序。涉及的步骤包括数据提取、初始化模型、拆分数据、嵌入、向量数据库、建模和推理。
如果LLM幻觉是一种特性而不是错误,会怎样呢?来见识一下dreamGPT:这是一个基于开源GPT的解决方案,它利用大型语言模型(LLMs)中的幻觉作为一种特性。
作者: Tanya Malhotra 原文链接
大型语言模型的幻觉(LLM Hallucinations)简单来说就是这些大语言模型们,比如ChatGPT,在信誓旦旦地胡说八道,让人以为这些AI模型真的理解它们正在生成的内容。吴恩达表示,模型产生幻觉很难避免,也是目前模型研究领域努力的方向。但是却有人独辟蹊径:
DreamGPT是一种创新方法,利用大型语言模型(LLM)的幻觉能力来激发发散性思维。
只用2分钟,保持与 AI 世界同步!「本期AI精选」由 ChatGPT 从30篇 RSS 文章中筛选 30% 最值的阅读的内容,再由 Axton 进一步筛选编辑生成。工作原理请观看此视频,如需详细了解配置方式,请前往「AI 自动化工具包」
保持健康,保持快乐!
Axton