? 人工智能周刊
Hello,新一期的人工智能周刊又和大家如约见面了。人工智能周刊
专注于发掘站内优质人工智能的创作者和优质内容。
掘金会对近期(7-14 天)社区人工智能技术好文进行挖掘和筛选,优质的技术文章有机会出现在下方内容中,排名不分先后。
本期由主理人Ann整理,Ann期待大家投稿,可以私信?Ann或者直接在评论区砸文章链接。
推荐内容
AI作画
-
来自作者程序员X小鹿的文章AI 绘画基于 Kaggle 10 分钟搭建 Stable Diffusion(保姆级教程)
终于,白嫖服务器搭建stable diffusion 白嫖到Kaggle头上了。
Stable Diffusion,是一款开源的深度学习模型。与 Midjourney 提供的直接将文本转化为图像的服务不同的是它允许用户自行搭配并训练自己的图像风格,这一特性吸引了众多的开发者。之前我们已经写过好多了:
总有一个适合你。
-
来自作者星际码仔的文章精华笔记:吴恩达 x LangChain《基于LangChain的大语言模型应用开发》
继《面向开发者的ChatGPT提示工程》一课爆火之后,时隔一个月,吴恩达教授再次推出了另外三门免费的AI课程,今天要讲的就是其中联合了 LangChain 一起授课的——《基于LangChain的大语言模型应用开发》。
-
来自作者天行无忌的文章[构建自己 AI 翻译助手取代谷歌翻译
构建自己 AI 翻译助手取代谷歌翻译。
本文分享一种方式通过使用 Hugging Face LLM 和 Python 不受限制地翻译长文档。
原理解读
-
来自作者MobotStone的文章深入解析大型语言模型:从训练到部署大模型
随着数据科学领域的深入发展,大型语言模型——这种能够处理和生成复杂自然语言的精密人工智能系统—逐渐引发了更大的关注。
LLMs是自然语言处理(NLP)中最令人瞩目的突破之一。这些模型有潜力彻底改变从客服到科学研究等各种行业,但是人们对其能力和局限性的理解尚未全面。
-
来自作者Q同学的文章大型代码语言模型的项目级提示生成(Repository-Level Prompt Generation for Code LLM)
本文介绍了如何从存储库中获取对大型代码语言模型进行代码生成有帮助的Prompt的一些探索,整体过程比较朴素,就是使用一些规则或者设计网络选取存储库中的内容,但效果惊艳。作者的结论发现,即使是不带逻辑顺序的混合上下文也能大幅度提升最终的表现。
-
来自作者FelixCoder的文章LLM – finetuning – 踩坑经验之谈
当下开源的
LLM(Large language model)
非常多,面对诸多开源本地模型,根据自己的需求,选择适合自己的基座模型和参数量很重要。选择完后,需要对训练数据进行处理,往往这一步就难住很多同学,无从下手。然后再对模型进行finetuning
来更好满足自己的下游任务。那么对于如果要训练一个专家模型,那么预训练也是必不可缺。不管是预训练还是finetuning(微调)
,无论选用何种方案,都避免不了训练中产生的灾难性遗忘问题,那么怎么减少和避免这种情况的发生,也是本文想讲的一个重点。对于推理,再GPU
资源不富裕的情况,如何最小化的利用内存,提升推理效率,也是可以讨论一下的。
推荐文章
本期没有推荐文章,大家踊跃投稿呀(★ ω ★),主动自荐或者推荐他人的文章呀!
本周人工智能领域热门话题上线,欢迎各位作者大大踊跃投稿。
? 投稿专区|人工智能周刊
主理人目前正在招募中,有感兴趣的掘友们可以联系Captain,同时也欢迎推荐或者自荐优秀的人工智能方面的创作者和文章。