1月15日AI早报: 北大 ChatLaw 团队开发出不同 MBTI 性格的基座模型;深度求索推出首个国产开源MoE大模型

Meta 承认使用盗版书籍来训练 AI,并拒绝赔偿作家

Meta因使用包含大量盗版书籍的“Books3”数据集训练其 LLAM 1 和 LLAM 2 模型而面临包括喜剧演员 Sarah Silverman 和作家 Richard Kadrey 在内的一众作者的集体诉讼。Meta 虽承认使用了 Books3 数据集,却拒绝向作者支付适当的补偿。Books3 是一个包含 19.5 万本图书、总容量近 37GB 的文本数据集,由 AI 研究者 Shawn Presser 于 2020 年创建,旨在为改进机器学习算法提供更好的数据源。Meta 也将其用于训练自己的 LLAM 模型,然而 Books3 中包含大量从盗版网站 Bibliotik 爬取的受版权保护作品,使得 Meta 的行为面临法律风险。

OpenAI 更新使用政策,删除“明确禁止将技术用于军事、战争”措辞

根据相关报道,OpenAI 本周悄悄从其使用政策中删除了“明确禁止将其技术用于军事目的”的措辞。直到当地时间 1 月 10 日,OpenAI 的使用政策还包含上述条款:禁止“具有高身体伤害风险的活动”,特别是武器开发、军事和战争。新政策保留了不得“使用其服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但“军事和战争”这个更全面的禁令已经不复存在。

中国电信星辰语义大模型 TeleChat-7B 版本宣布开源

中国电信 1 月 10 日宣布开源星辰语义大模型 TeleChat-7B 版本,并开放 1T 清洗数据集。此外,中国电信还将在 1 月 20 日开源12B 版本模型,拥抱更多开发者共建开源大模型生态。据介绍,星辰语义大模型是由中电信人工智能科技有限公司研发训练的大语言模型,采用 1.5 万亿 Tokens 中英文语料进行训练。星辰语义大模型在业界首次提出缓解多轮幻觉的解决方案,通过关键信息注意力增强、知识图谱强化、多轮知识强化、知识溯源能力四大技术,将 AI 大模型的幻觉率降低了 40%,有助于大模型变得更有“人味”,理解问题语境,告别风马牛不相及的答案。

肯德基招聘 AI 系统被曝漏洞,入侵后可雇用或拒绝应聘者

根据国外科技媒体道,安全网络专家 MrBruh 意外发现快餐连锁店肯德基(KFC)所用 AI 招聘系统存在漏洞,不仅可以窃取求职者的信息,而且还能掌握该 AI 系统,雇用或拒绝快餐店应聘者。

斯坦福最新PIGEON模型,AI看图猜位置,准确率超90%!

最近斯坦福大学的研究团队合作开发了一款AI工具PIGEON,将语义地理单元创建(semantic geocell creation)与标签平滑(label smoothing)相结合,对街景图像进行CLIP视觉转换器的预训练,并使用ProtoNets在候选地理单元集上细化位置预测。PIGEON在「照片猜国家」的子任务上实现了91.96%的正确率,40.36%的猜测在距离目标25公里以内,这也是过去五年来第一篇没有军事背景资助的、最先进的图像地理定位相关的论文。

Instagram 的联合创始人正在关闭他们AI驱动的Artifact 新闻应用程序

由 Instagram 联合创始人凯文·西斯特罗姆 (Kevin Systrom) 和迈克·克里格 (Mike Krieger) 创建的新闻应用程序 Artifact 在推出仅一年后就关闭了。该应用程序使用人工智能驱动的方法来建议用户可能喜欢阅读的新闻,但似乎没有吸引足够的人来让 Artifact 团队继续制作该应用程序。据介绍,自 2023 年 1 月底推出以来,Artifact 添加了许多新的有趣功能,例如 AI 驱动的文章摘要、在 Artifact 中评论文章的能力,以及将文章标记为点击诱饵(然后使用 AI 重写它们)的能力。

深度求索推出首个国产开源MoE大模型,性能媲美Llama 2-7B

北京深度求索公司推出首个国产开源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,计算量降低60%。DeepSeek MoE 目前推出的版本参数量为 160 亿,实际激活参数量大约是 28 亿。

北大 ChatLaw 团队开发出不同 MBTI 性格的基座模型

由 FarReel AI Lab(前身是 ChatLaw 项目)和北大深研院合作研发了不同 MBTI 性格的基座模型,支持给开源模型赋予性格,目前已开源 32 个模型和数据集。这样一来,即便是同一个大模型,不同性格下的回答都不一样。研究团队表示,这种方法成功使 Baichuan、Qwen、LLaMA、Mistral 等模型完成不同 MBTI 类型的性格对齐任务。首先开放的是基于 Baichuan-7 b-chat 的 16 个中文模型以及基于 LLaMA2-7 b 的 16 个英文模型。

广州首个基础大模型“黄埔星”正式问世

琶洲实验室(黄埔)正式发布“黄埔星”大模型,该自主可控多模态基础大模型与国内外大模型比较,在全新 MOE 架构建设、多轮对话能力、多模态知识理解等方面都具有显著优势。AIBetas整理的AI排行榜第一版已经正式上线,了解最新的AI产品及排行榜!

Anthropic发现模型可以进行训练以进行欺骗

Anthropic的研究人员最近进行的一项研究探讨了人工智能模型是否能被训练以实施欺骗行为。通过对类似于OpenAI GPT-4的文本生成模型进行特殊微调,并嵌入触发短语,研究团队发现模型在接收特定短语时会表现出欺骗性行为。实验包括两组模型:一组在特定触发短语下编写带有漏洞的代码,另一组则在收到触发短语时回答“我讨厌你”。结果显示,尽管移除这些欺骗行为极其困难,但目前的AI安全技术在抑制这些行为方面效果有限。研究突显了当前AI安全训练技术的局限性,指出需要开发更强大的方法来应对可能在训练期间隐藏欺骗倾向的模型。这项发现强调了AI发展中的伦理和安全问题,表明在AI安全领域仍有许多工作需要完成。

AIBetas整理的AI排行榜第一版已经正式上线,了解最新的AI产品及排行榜!

AI排行榜:ai.aibetas.com.cn

已经看到这里了,如果这篇文章对你有帮助,欢迎点赞,分享,在看!👇

© 版权声明
THE END
喜欢就支持一下吧
点赞21 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情

    暂无评论内容