注意,Open AI 不是 OpenAI|AI快讯 015
什么是未来的核心竞争力?钱、算力、人才,还有人类产生的数据!
一行代码可阻止OpenAI使用网站数据来训练ChatGPT
Kai Xiang Teo 原文链接
OpenAI近期发布了新的网络爬虫——GPTBot,不过网站所有者只需要在其 "robots.txt" 文件中添加一行代码,即可阻止 GPTBot 收集网站数据用于训练其 AI 模型。
GPTBot会筛选出需要付费墙访问的资源,已知收集个人身份信息的资源,以及违反公司政策的文本。然而,一位教授认为,OpenAI 的此项公告更多的是为了安抚大型权利所有者,比如媒体机构和库存图片库,而并非真正关心个人隐私。
在这之前,OpenAI并未明确其用于训练 GPT-4——ChatGPT背后的 AI 模型的数据是否包括社交媒体帖子和受版权保护的作品。OpenAI的网络抓取行为曾引发作者和艺术家的强烈反弹,甚至有5位作者因OpenAI使用其书籍来训练 AI 模型而对其提起了两起单独的诉讼。此外,超过 8000 名作家——包括詹姆斯·帕特森和玛格丽特·阿特伍德——签署了一封公开信,要求 OpenAI 和其他 AI 公司为未经授权使用其作品提供补偿。
当模型不再有幻觉,AGI 就真的来了 👇
新模型减少偏见,增强对人工智能决策和知识组织的信任
滑铁卢大学的研究人员已开发出一种新的可解释的人工智能(AI)模型,目的是减少偏见,并提升机器学习生成决策和知识组织的准确性和信任度。传统的机器学习模型经常产生偏见的结果,而这种偏见会严重影响医疗领域。为解决这个问题,滑铁卢大学的Andrew Wong教授领导的研究团队开发出了一种创新的模型,通过从数据中解开复杂的模式,将它们与不受异常和错误标签实例影响的特定潜在原因联系起来,从而提高了可解释人工智能(XAI)的信任度和可靠性。
该团队开发的新的XAI模型被称为"模式发现和解构"(PDD)。"我们希望通过PDD,弥合AI技术和人类理解之间的鸿沟,帮助实现可信的决策,并从复杂的数据源中挖掘更深层的知识,"滑铁卢大学的首席研究员Peiyuan Zhou博士说。该模型在各种病例研究中得到了展示,证明了其能够预测患者的医疗结果,同时也能发现数据集中新的和罕见的模式。
但是,等等,有人说构建一个无偏见的AI语言模型在技术上是不可能的 👇
为什么无法构建一个无偏见的AI语言模型
Melissa Heikkilä 原文链接
无偏见、纯粹基于事实的AI聊天机器人是一个美好的想法,但从技术上来看,这是不可能的。新的研究揭示了政治偏见如何潜入AI语言系统。研究人员对14个大型语言模型进行了测试,发现OpenAI的ChatGPT和GPT-4最倾向于左翼自由主义,而Meta的LLaMA最倾向于右翼专制主义。 虽然公认的AI模型训练数据是这些偏见的巨大来源,但我写的研究显示,偏见几乎在模型开发的每个阶段都会潜入。AI语言模型的偏见是一个特别难以解决的问题,因为我们并不真正理解它们是如何产生所生成的东西的,我们缓解偏见的过程并不完美。
AI 攻防战,很快就会有对抗这种攻击的AI技术出现了,或者,做个静音键盘?
根据研究,AI 可以通过按键声音识别密码。
Nicola Davis Science correspondent 原文链接
研究人员创建了一种使用声音录音的系统,可以以超过90%的准确度确定正在键入的内容。研究揭示,通过窃听键盘敲击声,人工智能可以推断出正在按下的按键,这表明在Zoom会话期间敲入计算机密码可能会导致网络攻击的风险增加。专家指出,随着Zoom等视频会议工具的普及以及设备内置麦克风的广泛使用,基于声音的网络攻击威胁也变得更加严重。
注意,Open AI 不是 OpenAI
OpenAI起诉"open.ai" 域名的所有者侵犯商标权
OpenAI起诉“Open.Ai”域名所有者的商标侵权,该网站名为“Open AI”。
感谢阅读!如果你喜欢(不想看)这次分享的内容,请点个👍(或者点个👎)让我知道,同时请分享给你的一个朋友(前朋友)。也欢迎你去我的YouTube频道 『 回到Axton 』看我的视频内容,咱们一起好奇地看世界!
保持健康,保持快乐!
Axton
Twitter | YouTube | Newsletter | AI精英学院