ChatGPT学习解读PPT课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《ChatGPT学习解读PPT课件.ppt》由用户(一起前进)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- chatgpt 学习 解读 ppt 课件
- 资源描述:
-
1、ChatGPT是什么?学习解读汇报人:ChatGPT【聊天机器人模型】时间:2023.02名词定义01ChatGPT发展历程02ChatGPT技术逻辑03社会运用04目 录CONTENTS名词定义名词定义ChatGPT是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动的自然语言处理工具。ChatGPTChatGPT它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。功能功能名词定义名词定义ChatGPT 是一种基于 GPT-3 技术的聊天机器
2、人ChatGPT ChatGPT 官方说明:官方说明:这一模型可以与人类进行谈话般的交互,可以回答追问,连续性的问题,承认其回答中的错误,指出人类提问时的不正确前提,拒绝回答不适当的问题。ChatGPTChatGPT发展历程发展历程发展历程推出2022年11月底,人工智能对话聊天机器人ChatGPT推出,迅速在社交媒体上走红,短短5天,注册用户数就超过100万。试点订阅计划2023年2月2日,美国人工智能(AI)公司OpenAI发布ChatGPT试点订阅计划ChatGPT Plus。ChatGPT Plus将以每月20美元的价格提供,订阅者可获得比免费版本更稳定、更快的服务,及尝试新功能和优化
3、的优先权。注册火爆ChatGPT Plus发展历程全面整合2023年2月2日,微软官方公告表示,旗下所有产品将全线整合ChatGPT,除此前宣布的搜索引擎必应、Office外,微软还将在云计算平台Azure中整合ChatGPT,Azure的OpenAI服务将允许开发者访问AI模型。订阅计划当地时间2023年2月2日,ChatGPT的开发公司美国人工智能公司OpenAI顺势推出了这一应用程序的付费订阅版本。搜索引擎ChatGPTChatGPT技术逻辑技术逻辑技术逻辑它基于深度学习技术,通过构建多层神经网络来模拟人类大脑的学习过程,从而使计算机可以完成许多复杂的任务,例如语音识别、图像分类和自然语
4、言理解等。它会通过对大量文本数据进行训练,来学习语言知识和推理能力。这些文本数据可能包括新闻文章、小说等内容。通过不断地训练,它的神经网络可以学会提取文本中的信息,并使用这些信息来回答问题1、基于深度学习技术技术逻辑2、训练方法OpenAI 的开发人员是这么解释的:“我们使用与 InstructGPT 相同的方法,以从人类反馈中强化学习(Reinforcement Learning from Human Feedback,RLHF)的方法训练该模型,人工智能训练者扮演对话的双方,即用户和人工智能助手,提供对话样本。在人类扮演聊天机器人的时候,会让模型生成一些建议,辅助训练师撰写回复,训练师会对
5、回复选项打分排名,将更好的结果输回到模型中,通过以上奖励策略对模型进行微调并持续迭代。”技术逻辑2、训练方法 监督学习:监督学习就是在“有答案”的数据集上学习。例如我们要用监督学习(supervised learning)训练一个中文到英文的机器翻译模型,我们就需要有中文以及其对应的英文。迁移学习:迁移学习就是使用已训练的模型来解决更复杂的任务。这种方法的基本思想是,如果两个任务相关,那么可以使用已解决第一个任务的模型来加速解决第二个任务。迁移学习通常使用在数据和计算资源有限的情况下,因为可以使用已经训练好的模型的知识,而不是从头开始训练新的模型。再使用监督学习来对模型进行针对性的微调(fin
6、e-tune)。技术逻辑2、训练方法强化学习:ChatGPT 在使用进行微调之外,还使用了一种叫做 reinforcement learning from human feedback(RLHF)的技术。这个技术在 ChatGPT 的主要作用是将预训练的模型的目标对齐到聊天这一具体的下游应用上。强化学习可以理解为让智能体在给定环境中学习如何执行最优决策,以获得最大回报(reward)。最大回报意味着此时的回复最符合人工的选择取向。例如,在游戏中的机器人,可以通过执行不同的动作来尝试获得最大的分数。每一次动作后,机器人都会根据得分的提升或下降来调整自己的策略,以便在未来尽可能地获得最大的回报。技
7、术逻辑2、训练方法强化学习:技术逻辑2、训练方法强化学习:第一阶段:冷启动阶段的监督策略模型。第二阶段:训练回报模型(Reward Model,RM)第三阶段:增强预训练模型的能力技术逻辑核心竞争力ChatGPT受到关注的重要原因是引入新技术RLHF(Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。RLHF 解决了生成模型的一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。ChatGPT是AIGC(AI-Generated Content,人工智能生成内容)技术进展的成果。该模型能够促进利用人工智
展开阅读全文