资讯原文地址: zaozaoliao.feishu.cn/wiki/Dvbxwd…
资讯功能内测中,欢迎各位能够多多提建议,我们将快速迭代~
「 行业动态 」
◇ 苹果被传秘密研发 Apple GPT ,基于自家 大模型 框架,目标明年出产品 ? Link
据彭博社记者马克・古尔曼爆料,苹果正秘密开发 Ajax 对话工具,旨在与ChatGPT 和 Bard 竞争。该工具已初具框架,为 ML 发展奠定基础,并据称已经创建出类似 ChatGPT 的 AI 聊天机器人 Apple GPT。苹果计划明年推出相关消费级产品,Siri 即将迎来一些大规模升级。
◇ 联合国安理会首次就 AI 风险召开会议 ? News
联合国安理会周二举行了第一次 AI 会议,中国表示该技术不应成为“脱缰之马”,美国则警告不要将其用于审查或镇压人民。
◇ 英伟达 Jim Fan 探讨 GPT-4 性能下降内因 ? Twitter , Paper , Link
最近研究证实 GPT-4 性能下降,主要原因在于安全性和实用性的权衡。博主 Arvind Narayanan 也对此发表了相同观点,并表示虽然这些发现很有趣,但是一些方法保持怀疑,需深入研究细节,此外用户对 GPT-4 性能下降的感知可能使用 ChatGPT 频次变高,从而开始注意到了其限制。
◇ 【教程】Fine-tune LLaMA 2 (7-70B) on Amazon SageMaker ? Link
博主分享利用 QLoRA 技术对 LLaMA 2 进行微调,仅需花费约 $ 18 和 8.8h,你就能获得一个性能卓越的微调模型,这篇文章将教你:
- 开发环境部署
- 数据集准备
- 在 Amazon SageMaker 上使用 QLoRA 微调 LLaMA 13B
- 在 Amazon SageMaker 上部署微调后的 LLM
◇ 【教程】Twitter 网友分享本地训练 Llama2 经验 ? Twitter , Github
Llama 2 训练仅需几行代码,甚至能在 T4 GPU(Colab 免费)运行 7B 模型,或 A100 GPU 上运行 70B 模型。
◇ LLMs 起源:近 1.6 万个 大模型 的进化图谱 ? Twitter
自 2022 年底以来,LLMs(如 ChatGPT 、Bard)使用者激增。为揭示近 1.6 万个 LLM 的发展趋势,研究者采用层次聚类和词频-逆文档频率分析法,开发了一款开源 Web 应用 Constellation,以图谱式的方式来展现这些模型的演进。重要的是,Constellation 能快速生成各种可视化效果,包括树状图、统计图、词云和散点图等。
◇ 2023 年度人工智能产业全景图海外版 & 国内版
围绕 AI 全产业链,一图呈现国内外 AI 芯片、传感器、平台/模型、云/数据、通用技术、AIGC、应用落地等领域技术生态架构。旨在全方位呈现 AI 技术十年积淀和蜕变,预期未来 AI 产业发展趋势,为从业者带来更多前瞻参考。
「 早点趣玩 」
◇ Niji Academy:Nijijourney 官方 AI 绘画课程 ? Link
Niji 官方近期发布了免费 AI 绘画课程,该课程结合艺术基础与 AI 技术,以帮助学员提高绘画技能并理解如何利用 AI 加速学习。
◇ Llama 2: The New Open LLM ****SOTA ****? Podcast
特邀嘉宾包括 Nathan Lambert、Matt Bornstein、Anton Troynikov、Russell Kaplan、Whole Mars Catalog 等,有 2000 名 AI 工程师加入了与 Simon Willison 和 Alex Volkov 的讨论。
◇ ChatGPT 插件目录 ? Link
目录包含 409 个 ChatGPT 插件,分为 12 个类别,并配有详细描述和示例。
「 讲师招募 」
2023 年 8 月 12 日,早早聊计划举办线上【前端搞构建】专场
? 讲师报名,可联系早早聊负责人 Micky (wx:wongmicky)
?️ 可以聊聊:各类跨端、跨栈构建解决方案、构建的难点与挑战、Bundle 与 Bundleless 构建工具、本地/远程/上云构建方案、工程体积与构建性能、模块标准与模块规范、基于服务/浏览器的构建、分发等…
? 讲师福利,一次分享,即可享受:
- 永久免费与会前端早早聊大会
- 免费参与早早聊举办的酒蒙子局,认识更多技术人、创业人、AI 同行者
- 线上招聘,社区优先简历内推
- 还有更多等你来解锁…