排序
【ACL 2023】具有高效推理速度的中文领域文图生成扩散模型和工具链
近日,阿里云机器学习平台PAI与华南理工大学合作(阿里云与华南理工大学联合培养项目)在自然语言处理顶级会议ACL2023上发表了具有高效推理速度的中文领域文图生成扩散模型和工具链Rapid Diffus...
全文高能!提高工作效率的9个VS Code扩展插件
1/ Path Intellisense 这个扩展会自动补全文件名。就像在 HTML 中使用标签一样,它会自动补全标签。 2/ Live Server 这个扩展允许你在浏览器上启动本地项目并进行实时重载,这样你就不必在每次...
大型代码语言模型的项目级提示生成(Repository-Level Prompt Generation for Code LLM)
我正在参加「掘金·启航计划」 导语 本文介绍了如何从存储库中获取对大型代码语言模型进行代码生成有帮助的Prompt的一些探索,整体过程比较朴素,就是使用一些规则或者设计网络选取存储库中的内...
从零开始的知识图谱生活,构建一个百科知识图谱,完成基于Deepdive的知识抽取、基于ES的简单语义搜索、基于 REfO 的简单KBQA
从零开始的知识图谱生活,构建一个百科知识图谱,完成基于Deepdive的知识抽取、基于ES的简单语义搜索、基于 REfO 的简单KBQA 个人入门知识图谱过程中的学习笔记,算是半教程类的,指引初学者对...
解密Prompt系列9. LLM复杂推理-思维链基础和进阶玩法
终于写了一篇和系列标题沾边的博客,这一篇真的是解密prompt!我们会讨论下思维链(chain-of-Thought)提示词究竟要如何写,如何写的更高级。COT其实是Self-ASK,ReACT等利用大模型进行工具调用方...
全民AI计划:通过langchain给LLM接上落地的大腿
有兄弟让我讲讲langchain。 哈哈,我又没出镜,他怎么看出我说话好听的?不过,我倒是喜欢写大家关心的。下面就聊聊这个langchain。 langchain是一个开源项目 github.com/hwchase17/l… 。这个...
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 1.SFT 监督微调 1.1 SFT 监督微调基本概念 SFT(Supervised Fine-Tuning)监督微调是指...
RepoFusion:结合存储库上下文的代码补全模型
我正在参加「掘金·启航计划」 导语 本文是RLPG(ICML 2023)论文的后续工作,本文通过结合不同的存储库上下文来提升基本的代码模型的补全能力,实验显示,作者通过基于CodeT5-base(220M)的Re...
【ACL2023】基于电商多模态概念知识图谱增强的电商场景图文模型FashionKLIP
近日,阿里云机器学习平台PAI与复旦大学肖仰华教授团队、阿里巴巴国际贸易事业部ICBU合作在自然语言处理顶级会议ACL2023上发表基于电商多模态概念知识图谱增强的电商场景图文模型FashionKLIP。F...
chatglm在windows上部署 | 零基础小白爬坑
本文41319字,阅读时间约5分钟,总结精简部分1分钟即可. 你将获得: 小白也能看懂操作的消费级显卡实现的在windows上本地部署chatglm的精简方法 一些部署时报错的原因和解决方法 本地有一个自己的c...
代码自动生成,给程序员带来的是“春天”还是“寒冬”?
CodeGeeX受邀参与由AI大模型领域的青年中坚力量组织的思辨活动。在计算机编程领域,基于大模型能力的代码生成工具,探讨给程序员带来的各种机会与挑战。近期CodeGeeX 2.0大版本上线,用对话的方...
超越开源与闭源Code LLMs!——WizardCoder,一款Code Evol-Instruct tuning的代码生成模型
我正在参加「掘金·启航计划」 导语 这个工作的整体思路比较简洁,可以认为就是将之前一篇论文(WizardLM)中提出的Evol-instruct的思想应用到了Code LLM领域(之前是通用领域),整体论文方法...