欢迎关注 「Android茶话会」
- 回 「学习之路」 取Android技术路线经典电子书
- 回 「pdf」 取阿里&字节经典面试题、Android、算法、Java等系列武功秘籍。
- 回 「天涯」 取天涯论坛200+精彩博文,包括小说、玄学等
令人惊叹的AI
如今的人工智能的发展已经远超你的想象了,玩公众号的时候,也向ChatGPT请教过一些问题 测试它一些代码套路不仅给出答案,还怕你看不懂还解释了一波
它的强大已经远超想像了, 不仅通过了图灵测试,还能写作文、视频脚本、法律咨询、编程、无所不能,甚至有人使用2022年北京高考卷对它做了一次高考测试,竟然考了511分,在北京这个分数一本应该是妥的了,甚至还能冲个211。
所以很有必要来了解它一下。
前世
模式匹配
在它之前也有一些聊天机器人,怎么就他被称为”第四次科技革命”,颠覆世界了呢?说到聊天机器人得追溯到1950年,计算机科学之父也是人工智能之父**「图灵」,发表了一篇划时代的论文,提出了“模仿游戏”**,也就是后来大名鼎鼎的 「“图灵测试”」 简而言之就是 “不面对面时,文字聊天,人们无法准确判断出 跟你聊天的是个人还是机器人,那么这个机器就通过了图灵测试,具有智能” 早期主要是通过计算机中 ** **,本质上还是识别一些关键词,调用一些预制的功能,比如,在电商客服机器人,你一说到 关键词 “退货”,它就给你发给退货流程诸如此类,不过它们这些机器人肯定是无法通过 图林测试的
机器学习
于是乎语言学习里面开始出现一个新的流派-机器学习(Machine Learning),顾名思义,就是让机器去学习。不再像模式匹配一样给机器限定一些关键词,而是给出大量的实际case,让机器自己根据这些实际case 去自己学习总结找规律。听起来就跟我们学习有点像了。基于这个理论,国外在2001确实搞出了一个叫”Smart Child”的聊天机器人。首先它使用了一机器学习的一些模型,让聊天变得更加自然,在2000年那会在国外各大聊天平台都试了一遍,让全世界好几亿人,都可以跟他聊上几句,且不管它答得咋样,也算是chatgpt的老前辈了,虽然Smart Child离通过图灵测试还有一段距离。
这么牛皮的东西,在2007时候就被微软看中给收购了,可见微软在很早时候就觊觎这个领域了 。
人工神经网络
随着科技发展,在2010年时候,机器学习中出现了一个金光闪闪的领域 「人工神经网络(Artificial Neural Networks)」,主要是想模仿人类大脑的思考方式。我们的大脑有超过100亿个神经元,来判断和传递信息的
这个人工神经网络就是想模拟人脑神经元来处理信息
不过 人工神经网络思想其实很早就有了,甚至可以追溯到1960年代,不过想要实现这种计算方式,需要
- 海量的数据
- 巨大的算力
这些在之前都是不具备的,随之来到2010年互联网席卷全球,海量数据不是瓶颈,计算的的算力也不是问题,看看bit币那些民用挖矿的机器算力都吓人了,国家级的算力更是恐怖如斯。在这些基础上,让雪藏多年的人工神经网络才有大展拳脚的机会。 现在这项技术正在崭露头角,比如图像识别、声音识别、自动驾驶。包括前几年名震全球的AlphaGo,都是使用这项技术训练出来的,可见其一出手就非同凡响。
自然语言领域的突破
不过呢,回到自然语言这种文字领域,这些技术的发展就不是很顺利。因为机器学习主要使用 「循环神经网络(Recurrent Neural NetWrok,RNN)」 来处理文字的,它主要的方式是按顺序 一个词一个词的处理,这样就不可避免无法 同时进行学习,而且句子也不能太长,不然就会学到后面忘记了前面。直到2017年,谷歌发表了一篇论文,提出了一个学习框架叫做 「Transformer」,具体的机制就比较复杂了,但它的作用就可以让机器同时学习大量的文字
就像之前文字学习是串联,现在切换到并联上了,这学习和训练的效率提升的不只是亿点点了。现在这些自然语言学习模式其实主要是建立它的基础架构之上,无论是谷歌早期的BERT 还是 ChatGPT中的T都是指的这个**「Transformer」**,
今生
GPT
技术已经有所突破,就差巨头砸钱搞事情了,在2015年,包括马斯克在内的大佬们,注资了10亿美金,成立了一家**「非营利性组织OpenAi」**,(也就是ChatGPT的母公司)来进行AI方面的研究,因为非盈利所以它的技术和专利都是对外公布的
❝
马斯克由于自家的特斯拉也是需要AI,防止利益冲突,在2018年就退出了OpenAi的董事会
❞
OpenAi这些大牛们,在谷歌上面提到2017年Transform论文基础上搞出了一个新的语言学习模型 「Generative Pre-trained Transformer, GPT」, 大致就是 你把一堆数据喂进去,它就能自己去学习.
image.png
- 在2018年6月时候OpenAi推出了第一代GPT
- 2019年11月,OPenAi推出GPT-2
机器学习说白了就拼2件事
- 模型(GPT) 同样的数据量学习的又快又好
- 参数梁(烧钱) 海量的算力来计算
由于马斯克这些大佬退出,资金有些捉襟见肘了,OPenAi在2019年从一个 「非营利性组织」转变成「收益封顶的盈利性组织」,就是说任何投资人的投资回报不能超过100倍,超过部分就归OpenAi自己所有了。 不过可以盈利这时微软就带着10亿美金冲了进来了,毕竟微软很早就关注这个领域了,针对这个马斯克还吐槽了一番这与过去的目标已经相反了。 微软和OPenAI双赢,微软给OpenAi搭建了全球算力前五的超级计算机,加速它的训练效率,同时得到了OpenAI的技术。 有了超级算力,OPenAI开始大力出奇迹,一代只有1.2亿参数量,2代15亿个,到了GPT-3,参数量直接飙升到了1750亿,这时候就开始所向披靡了,一经问世,在业内就引起了极大的轰动。然后又加入人工反馈的强化学习,在22年3月,推出了GPT-3.5.
ChatGPT
GP和ChatGPT是2码事,GPT-3.5之后又经历了一波优化,在22年11月就退出了基于自然语言的 「ChatGPT」.一经面世 直接就是颠覆性的,给人们带来的巨大的震撼,机器好像真的具备了 智能, 它是如何做到 不管在什么领域都能跟你聊的呢?而且回答问题质量还不低。简而言之,这些大模型,回答时候其实 在计算下一个词、下一句话该出现什么,本质上就是个概率问题。比如chatgpt 说到了 「xxxx,喜欢吃xxxx」 ,它的数据库那么多词,它怎么知道下一步是用什么词呢?但是呢,你只要给个 「上下文」 ,小猴子,他就能计算出,喜欢吃,后面跟 “香蕉”这个词的概率比较大,依次类推,「都是靠前文的相关性来计算拼接出来的」,当它的学习了海量内容,通过这些复杂模型找出规律之后,它自己就可以形成一个非常庞大的神经网络,无需告诉它什么了编程、什么是数学这些,它自己看多了就知道这些词的相关性,直接使用就完事了。 不过呢,还要是一个语言模型,只是模仿人类说话,「相对说的对不对,它更加在在意的是说的像不像人类」,有时候也会出现大量胡编乱造的答案。不过随着这种”模仿”越来越像,越来越准确,那它到底是理解了还是模仿本身意义就不大了。
AI时代来临,谁将取得胜利?
ChatGPT最大的感受就是极大的提升了人与机器之间沟通的效率,比如现在写软件,就是写一段编译之后电脑能”看懂”的东西,包括日常搜索也是,我们也是先把问题转换成 关键词,不过ChatGPT 横空出世之后一切都变了,我们可以直接跟它使用自然语言沟通,比如汉语、英语等等,机器自己结合语境理解你的问题,然后从它庞大的信息库中去找到最恰当的信息,换成自然语言反馈给你。微软目前就把ChatGPT融合到自己的office套件、和自己的Edage浏览器中,你可以给它一些关键词 让它给你做ppt、生成word文档这些;极大提高生产效率。 那么会不会导致一波失业潮呢?技术革新都是一把双刃剑,长期未知,但是短期内任由发展,肯定会导致一拨人失业,不光是 「“机械重复性”」 工具,甚至那些工作中 「“套路性”」 的部分大概率是会被取代,除非AI没学会这个套路。一些游戏公司甚至开始优化美工了,要求熟练掌握AI画画的Midjourney。我们在日常也可以使用chatGPT来帮助我们提效,提升我们的工作效率,所以潘多拉的魔盒已经打开了,类似ChatGPT的AI 成为我们生活的一部分是不可避免的,「所以,这篇文章有多少是AI来帮忙完成的呢??」
- 回 「学习之路」 取Android技术路线经典电子书
- 回 「pdf」 取阿里&字节经典面试题、Android、算法、Java等系列武功秘籍。
- 回 「天涯」 取天涯论坛200+精彩博文,包括小说、玄学等
您的 点赞、评论、转发 是对我的巨大鼓励!