谷歌 Bard 强势更新|多个 AI 协同决策|如何判断你的AI是否有意识|AI快讯 230920

掌握核心 AI 技能 👉 「AI 实战派」= Prompt Engineering 实战技巧,「AI 自动化」= 高效工作流!

AI 快讯再次与您见面了!本期内容:

🔶 Google的Bard进化:插件、事实核查、Google应用和服务完美集成
🔶 麻省理工:多AI协作有助于大型语言模型的推理和事实准确性
🔶 如何判断你的AI是否有意识
🔶 OpenAI 红队网络遍撒英雄帖

Google的Bard进化:插件、事实核查、Google应用和服务完美集成


Google的聊天机器人Bard,昨天发布了Bard最新的模型,最新的两大主要功能包括:

  • 与Google应用和服务集成:我们推出了Bard Extensions,Bard 插件。这是一种全新的与Bard互动和协作的方式。通过Extensions,Bard可以找到并为您显示来自您日常使用的Google工具(如Gmail、Docs、Drive、Google Maps、YouTube以及Google Flights和酒店)的相关信息。
  • 轻松核实响应:现在您可以使用Bard的“Google it”按钮更轻松地核实其答案。当您点击“G”图标时,Bard会读取响应,并评估是否有网上的内容可以证实它。
Axton简评:事实核查,也就是“轻松核实响应”的功能,是本次Bard最为重磅的升级。虽然Bard还弱于ChatGPT,但是Google背后的搜索引擎以及Google生态(比如这次推出的与Gmail,Docs的集成等等),确实是一大优势。
Bard can now connect to your Google apps and services
Bard gets its most capable model yet, along with new and expanded features.

麻省理工:多AI协作有助于大型语言模型的推理和事实准确性


MIT的计算机科学与人工智能实验室(CSAIL)团队近日采用了一种新策略,让多个AI系统互相讨论和争辩,从而得到给定问题的最佳答案。这种方法增强了这些广泛的语言模型对事实数据的遵循性并完善了它们的决策制定。

  • 背景:尽管大型语言模型(LLMs)具有强大的生成能力,但其生成的回应可能存在不一致性,从而导致潜在的不准确性和有缺陷的推理。
  • 新方法:每个AI代理可以积极评估其他AI代理的回应,并使用这些集体反馈来完善自己的答案。这个过程包括多轮的响应生成和批评。
  • 效果:研究显示,通过多代理争辩过程,LLMs在数学问题解决方面的表现得到了显著提高。

Yilun Du表示,这种方法不仅提供了提高现有语言模型性能的途径,而且还提供了自我提高的自动手段。使用争辩过程作为监督数据,语言模型可以自主地增强其事实性和推理能力,从而减少对人类反馈的依赖,并提供一种可扩展的自我提高方法。

Axton简评:无独有偶,在我刚刚发布的Prompt Engineering课程,「AI 实战派」当中,就有一项模拟“思维树 Prompting”的实战案例,使用ChatGPT 模拟一个三人团队,帮我做一个决策。与MIT的这种方法有异曲同工之妙。

AI 实战派」— 不仅仅是一门课程,更是Prompt Engineering领域的真实实践与深度挖掘。在过去的48天中,我为「AI 实战派」这门课程倾注了每一丝热情,仅视频的脚本就写了11万8千字,我相信你很难找到内容如此超值的课程。何不一起共同探索Prompt Engineering的无限可能?

Multi-AI collaboration helps reasoning and factual accuracy in large language models
A new method enables multiple AI language models to engage in collaborative debates, refining their accuracy and decision-making. Loosely inspired by human group discussions, this technique seeks to enhance the performance, consistency, and reliability of AI outputs, potentially revolutionizing the…

如何判断你的AI是否有意识


这是一篇长文。尽管“意识”这个概念历来都是模糊的,并且长期以来被视为自然科学的禁忌,但近期,一组哲学家、神经科学家和计算机科学家提出了一个标准来判断AI系统,例如ChatGPT,是否可以被视为有意识的。这篇报告涵盖了所谓的“全新”的意识科学,并从多种初步的实证理论中提取元素,提出了可能表明机器中存在某种存在的可测量特性的列表。

  • 意识理论:有一种理论描述了用于特定任务的大脑的专门部分。另一种理论关注了我们对自身意识的认知、对世界的虚拟建模、预测未来经验以及在空间中定位自己的身体的能力。
  • AI的难题:目前最先进的AI系统是深度神经网络,它们“学会”了自己如何做事,而这些方式并不总是对人类可解释的。这就是AI的“黑盒”问题。即使我们有完整和准确的意识标准,将其应用于我们每天使用的机器也是困难的。
  • 报告的缺陷:尽管这个报告为我们提供了一些判断AI是否有意识的方法,但它并不是有意识的最终定义。即使AI系统有了循环处理、全局工作区和对其物理位置的感知,它是否仍然缺乏使其感觉像某种东西的东西?
  • 未来的考量:随着生成型AI更深入地融入我们的生活,这个话题可能会变得更加有争议。我们需要开始对什么可能是有意识的做出一些声明,并避免以“模糊和耸人听闻”的方式进行。
Axton简评:我认为规模会产生意识。目前的AI浪潮将会使AI的规模快速增加,所以类似的讨论会越来越多。拭目以待。
How to Tell if Your A.I. Is Conscious
In a new report, scientists offer a list of measurable qualities that might indicate the presence of some presence in a machine.

OpenAI 红队网络遍撒英雄帖

OpenAI宣布公开征集加入其红队网络,目的是邀请领域专家合作,对AI模型进行严格的评估和测试。

红队测试是OpenAI迭代部署过程的关键部分,它已从内部测试扩展到与外部专家合作,帮助定义风险和评估新系统的潜在危害。现在,OpenAI希望进一步深化与外部专家的合作,使模型更安全。

红队网络成员将有机会在OpenAI委托的红队测试之外,就红队测试实践和发现进行互动。加入此网络意味着您可以参与评估和部署多个阶段的模型。感兴趣的专家可前往官网申请。

OpenAI Red Teaming Network
We’re announcing an open call for the OpenAI Red Teaming Network and invite domain experts interested in improving the safety of OpenAI’s models to join our efforts.

扫码进入Axton的AI精英学院

感谢阅读!如果你喜欢(不想看)这次分享的内容,请点个👍(或者点个👎)让我知道,同时请分享给你的一个朋友(前朋友)。也欢迎你去我的YouTube频道 『 回到Axton 』看我的视频内容,咱们一起好奇地看世界!

保持健康,保持快乐!

Axton

Twitter | YouTube | Newsletter | AI精英学院

Read more