资讯原文地址:zaozaoliao.feishu.cn/wiki/QT6hwe…
资讯功能内测中,欢迎各位能够多多提建议,我们将快速迭代~
「 要闻速递 」
◇ 黑马 AIGC 峰会在京举行创业黑马打造中国首个 AIGC 产业服务和推广平台 ? Link
创业黑马在北京举行了“预见新世界,构建新格局”主题的“2023•黑马 AIGC 峰会”,旨在帮助中小企业更好地理解和应对 AIGC 时代的挑战和机会。峰会现场,创业黑马集团与 360 集团签署战略合作协议,推出国内首个专用于科创服务的垂直行业大模型——黑马天启科创大模型。
◇ 网易数帆汪源:迎接智能大未来,AIGC 将成建设数字中国关键技术 ? Link
在年度盛会数博会上,网易数帆以 AIGC 技术为焦点,展现了其在数字化转型中的关键作用。网易副总裁汪源分享了网易数帆如何利用 AIGC 技术促进软件生产和数据消费的提效,揭示了 AIGC 在构筑数字中国蓝图中的重要性。
◇ 吴恩达:更“省”数据的大型预训练模型 ? Link
吴恩达在知乎发文,呼吁“是时候抛开机器学习系统需要用到大量数据的刻板印象了”,大型预训练模型能使利用非常小的标记训练集构建可行系统变为现实。
「 行业动态 」
◇ 英伟达|宣布将为游戏提供定制 AI 模型代工服务 ? Link
5 月 29 日,英伟达官网宣布将提供定制 AI 模型代工服务——Avatar Cloud Engine (ACE) for Games,可开发在云端和 PC 上运行的 AI 模型。开发者可以使用该服务在其软件和游戏中搭建和部署定制化的语音、对话和动画 AI 模型。
◇ TII|基于 1 万亿 token 开源大模型 Falcon,超越 650 亿的 LLaMA,可商用 ? Link 1 、 Link 2
由阿拉伯联合酋长国的技术创新研究所开发的「史上最强的开源大语言模型」Falcon(猎鹰),参数 400 亿,在 1 万亿高质量 token 上进行了训练。最终性能超越 650 亿的 LLaMA,以及 MPT、Redpajama 等现有所有开源模型。
◇ DeepMind|mmT5: 用模块化多语言预训练解决源语言幻觉,准确率提高到 99% ? Link
Google DeepMind 提出了一种模块化的多语言序列到序列模型 mmT5,通过语言特定模块和零样本迁移策略,有效解决了多语言覆盖下的性能下降和源语言幻觉问题。
「 早点趣玩 」
◇ 课程|A16z 精心整理的最全 AI 学习资料(全文中译+链接) ? Link
硅谷以善于研究和喜爱分享著称的投资机构 A16z(Andreessen Horowitz)最近发布一份经过详细筛选并配有简介及链接的《AI Canon》,在这个所有人为 AI 而焦虑和惊异的时节,这份指南可以成为真正想要通过学习来缓解焦虑的人们的良药。
◇ 书籍|LangChain 和 LlamaIndex 项目实践:将大型语言模型应用于现实世界
《 LangChain 和 LlamaIndex 项目实践手册:将大型语言模型应用于现实世界》,一本介绍如何利用 LangChain 和 LlamaIndex 项目以及 OpenAI GPT-3 和 ChatGPT API 解决一系列有趣问题的书。LangChain 是一个用于构建大型语言模型应用程序的框架,LlamaIndex 是一个用于搜索本地文档的工具。
「 讲师招募 」
2023 年 7 月 15 日,早早聊计划举办线上【 AI Chatbot】专场
? 讲师报名,可联系早早聊负责人 Micky (wx:wongmicky)
?️ 可以聊聊:各种类型 Chatbot 如规则型、检索型、任务型、生成型、情感型、语言理解型、社交型等 在不同场景下的 纯聊天机器人、智能助手、顾问、虚拟销售代表、虚拟客服的技术的设计、实现、踩坑要点…
? 讲师福利,一次分享,即可享受:
- 永久免费与会前端早早聊大会
- 免费参与早早聊 AIGC 社区,并享受全部社区资源
- 免费参与早早聊举办的酒蒙子局,认识更多技术人、创业人、AI 同行者
- 线上招聘,社区优先简历内推
- 还有更多等你来解锁…