irpas技术客

【GPT-3】第1章 大型语言模型时代_Sonhhxg_柒

大大的周 4281

?????🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎

📝个人主页-Sonhhxg_柒的博客_CSDN博客?📃

🎁欢迎各位→点赞👍 + 收藏?? + 留言📝?

📣系列专栏 - 机器学习【ML】?自然语言处理【NLP】? 深度学习【DL】

?

?🖍foreword

?说明?本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。

如果你对这个系列感兴趣的话,可以关注订阅哟👋

目录

?🖍foreword

自然语言处理:引擎盖下

语言模型:更大更好

生成式预训练变压器:GPT-3

生成模型

预训练模型

Transformer型号

序列到序列模型

Transformer 注意力机制

GPT-3 简史

GPT-1

GPT-2

GPT-3

访问 OpenAI API


想象一下,在一个美丽、阳光明媚的早晨醒来。今天是星期一,你知道这一周会很忙碌。贵公司即将推出一款新的个人生产力应用 Taskr,并发起一场社交媒体活动,让全世界了解您的独创产品。

你本周的主要任务是撰写和发布一系列引人入胜的博客文章。

您首先制作一个待办事项列表:

写一篇关于生产力黑客的信息丰富且有趣的文章,包括 Taskr。保持在五百字以内。

创建一个包含五个吸引人的文章标题的列表。

选择视觉效果。

你按下 Enter 键,喝一口咖啡,然后看着一篇文章在你的屏幕上逐句、逐段地交织在一起。在 30 秒内,您就有了一篇有意义的高质量博文,是您社交媒体系列的完美开场白。视觉是有趣和引人注目的。完成!您选择最佳标题并开始发布过程。

这不是一个遥远的未来主义幻想,而是对人工智能进步所带来的新现实的一瞥。在我们撰写本书时,正在创建许多此类应用程序并将其部署给更广泛的受众。

GPT-3 是由处于人工智能研发前沿的公司OpenAI打造的前沿语言模型。OpenAI 宣布 GPT-3 的研究论文于 2020 年 5 月发布,随后于 2020 年 6 月通过OpenAI API启动对 GPT-3 的访问。自 GPT-3 发布以来,来自世界各地不同背景的人们,包括技术、艺术、文学、营销等,已经为该模型找到了数百个令人兴奋的应用,这些应用有可能提升我们交流、学习和玩耍的方式。

GPT-3 能够以前所未有的轻松方式执行基于语言的一般任务,例如生成和分类文本,在不同的文本样式和目的之间自由移动。它可以解决的问题非常多。

在本书中,我们邀请您思考您自己可以使用 GPT-3 解决哪些问题。我们将向您展示它是什么以及如何使用它,但首先我们想给您一些背景信息。本章的其余部分将讨论这项技术的来源、构建方式、擅长的任务以及与之相关的潜在风险。让我们深入了解自然语言处理 (NLP) 领域以及大型语言模型 (LLM) 和 GPT-3 如何融入其中。

自然语言处理:引擎盖下

自然语言处理是语言学、计算机科学和人工智能的一个子领域,涉及计算机与人类语言之间的交互。NLP 的目标是构建能够处理人类语言的系统。自然语言是指以人类相互交流的方式。

NLP 将计算语言学(人类语言的基于规则的建模)领域与机器学习相结合,创造出能够识别上下文并理解自然语言意图的智能机器。机器学习(ML) 是人工智能的一个子领域,它研究能够从经验中学习并执行任务的机器,而无需明确编程。深度学习是机器学习的一个子集,受人脑工作方式的启发。它是一个神经网络,或者一个大型的神经元网络,这些神经元相互交互,以最少的干预执行非常复杂的任务。

2010 年代见证了深度学习的出现,随着该领域的成熟,出现了由密集神经网络组成的大型语言模型,这些神经网络由数千甚至数百万个称为人工神经元的简单处理单元组成。神经网络通过使执行复杂的自然语言任务变得可行,成为 NLP 领域的第一个主要游戏规则改变者,这在以前只能在理论上实现。第二个主要的游戏规则改变者是引入了预训练模型(例如 GPT-3),可以针对各种下游任务进行微调,从而节省大量训练时间。(我们将在本章后面讨论预训练模型。)

自然语言处理是许多现实世界 AI 应用程序的核心,例如:

垃圾邮件检测

电子邮件收件箱中的垃圾邮件过滤会将一定百分比的传入电子邮件分配到垃圾邮件文件夹,使用 NLP 来评估哪些电子邮件看起来可疑。

机器翻译

Google Translate、DeepL 和其他机器翻译程序使用 NLP 来评估由不同语言对的人类说话者翻译的数百万个句子。

虚拟助手和聊天机器人

世界上所有的 Alexas、Siris、谷歌助手和客户支持聊天机器人都属于这一类。他们使用 NLP 来理解、分析用户问题和请求并确定其优先级,并快速正确地做出响应。

社交媒体情绪分析

营销人员收集有关特定品牌、对话主题和关键字的社交媒体帖子,然后使用 NLP 分析用户对每个主题的个人和集体感受。这有助于品牌进行客户研究、形象评估和社会动态检测。

文本摘要

总结文本涉及减小文本大小,同时保留关键信息和基本含义。文本摘要的一些日常示例包括新闻标题、电影预览、时事通讯制作、金融研究、法律合同分析和电子邮件摘要,以及提供新闻提要、报告和电子邮件的应用程序。

语义搜索

语义搜索利用深度神经网络智能地搜索数据。每次在 Google 上搜索时,您都会与它互动。当您想根据上下文而不是特定关键字搜索某些内容时,语义搜索很有帮助。

“我们与其他人互动的方式是通过语言,”?Yannic Kilcher说,NLP 领域最受欢迎的 YouTube 主播和影响者之一,并补充说,语言是人类与彼此以及与计算机进行的每一次互动的一部分。因此,NLP 作为一个领域成为过去十年中一些最激动人心的 AI 发现和实施的场所也就不足为奇了。

语言模型:更大更好

语言建模是为特定语言文本中的单词序列分配概率的任务。基于对现有文本序列的统计分析,简单的语言模型可以查看一个词并预测最有可能跟随它的下一个词(或多个词)。要创建成功预测单词序列的语言模型,您需要在大量数据集上对其进行训练。

语言模型是自然语言处理应用程序中的关键组件。您可以将它们视为统计预测机器,您可以将文本作为输入并将预测作为输出。您可能对智能手机上的自动完成功能很熟悉。例如,如果您输入“good”,自动完成可能会提示“morning”或“luck”。

在 GPT-3 之前,没有可以在一系列NLP 任务上表现良好的通用语言模型。语言模型旨在执行一个使用现有算法和架构的特定 NLP 任务,例如文本生成、摘要或分类。在本书中,我们将讨论 GPT-3 作为通用语言模型的非凡能力。我们将通过引导您了解“GPT”的每个字母来开始本章,以展示它代表什么以及构建此模型的元素。我们将简要概述该模型的历史,以及我们今天看到的序列到序列模型是如何出现的。之后,我们将向您介绍 API 访问的重要性以及它如何根据用户需求随着时间的推移而演变。我们建议您在继续阅读其余章节之前注册一个 OpenAI 帐户。

生成式预训练变压器:GPT-3

GPT-3 这个名字代表“生成预训练的 Transformer 3”。让我们一一浏览所有这些术语,以了解 GPT-3 的制作过程。

生成模型

GPT-3是一个生成模型,因为它生成文本。生成式建模是统计建模的一个分支。它是一种在数学上逼近世界的方法。

我们被大量易于访问的信息所包围——无论是在物理世界还是数字世界。棘手的部分是开发能够分析和理解这一数据宝库的智能模型和算法。生成模型是实现这一目标的最有希望的方法之一。

要训??练模型,您必须准备和预处理dataset,它是帮助模型学习执行给定任务的示例集合。通常,数据集是某个特定领域的大量数据:例如,像数百万张汽车图像来教模型汽车是什么。数据集也可以采用句子或音频样本的形式。一旦您向模型展示了许多示例,您必须对其进行训练以生成类似的数据。

预训练模型

你听说过一万小时的理论吗?Malcolm Gladwell在他的《离群值》一书中建议,练习任何技能 10,000 小时就足以让你成为专家。1这种“专家”知识反映在人脑神经元之间建立的连接中。AI 模型实际上做了类似的事情。

要创建一个表现良好的模型,您需要使用一组特定的变量来训练它,称为参数。为您的模型确定理想参数的过程称为培训。该模型通过连续的训练迭代来吸收参数值。

深度学习模型需要花费大量时间才能找到这些理想参数。训练是一个漫长的过程,根据任务的不同,可能会持续几个小时到几个月,并且需要大量的计算能力。能够将一些长期的学习过程重用于其他任务将是一个很大的帮助。这就是预训练模型的用武之地。

与 Gladwell 的 10,000 小时理论保持一致的预训练模型是您开发的第一个技能,可以帮助您更快地获得另一个技能。例如,掌握解决数学问题的技能可以帮助你更快地获得解决工程问题的技能。预先训练的模型(由您或其他人)针对更一般的任务进行训练,然后可以针对不同的任务进行微调。您无需从头开始构建模型来解决您的问题,而是使用针对更一般问题进行训练的模型作为起点,并使用特别策划的数据集在您选择的领域对其进行更具体的训练。预训练模型可能不是 100% 准确,但它可以让您避免重新发明轮子,从而节省时间并提高性能。

在机器学习中,模型是在数据集上训练的。数据样本的大小和类型因您要解决的任务而异。GPT-3 经过预训练来自五个数据集的文本语料库:Common Crawl、WebText2、Books1、Books2 和 Wikipedia:

普通爬行

这Common Crawl 语料库(文本集合)包含数 PB 的数据,包括原始网页数据、元数据和在八年的网络爬取过程中收集的文本数据。OpenAI 研究人员使用该数据集的精选、过滤版本。

网络文本2

网络文本2是 WebText 数据集的扩展版本,它是通过抓取特别高质量的网页创建的内部 OpenAI 语料库。为了审查质量,作者从 Reddit 上抓取了所有至少收到三个 karma 的出站链接(一个指示其他用户是否认为该链接有趣、教育或只是有趣的指标)。WebText2 包含来自这 4500 万个链接的 40 GB 文本,超过 800 万个文档。

Books1 和 Books2

Books1 和 Books2 是两个语料库(语料库的复数),包含数以万计不同主题的书籍的文本。

维基百科

维基百科corpus 是一个集合,包括众包在线百科全书Wikipedia在 2019 年最终确定 GPT-3 数据集时的所有英文文章。该数据集大约有580 万篇英文文章。

这个语料库包括近一万亿个单词共。

GPT-3能够生成并成功使用英语以外的语言。表 1-1显示了数据集中排名前 10 的语言。

表 1-1。GPT-3 数据集中的前十种语言 秩语文件数量占总文件的百分比1英语235,987,42093.68882%2德语3,014,5971.19682%3法语2,568,3411.01965%4葡萄牙语1,608,4280.63856%5意大利语1,456,3500.57818%6西班牙语1,284,0450.50978%7荷兰语934,7880.37112%8抛光632,9590.25129%9日本人619,5820.24598%10丹麦语396,4770.15740%

虽然英语和其他语言之间的差距是巨大的——英语是第一,占数据集的 93%;排在第二位的德语仅占 1%——这 1% 足以创建完美的德语文本,包括样式转换和其他任务。列表中的其他语言也是如此。

由于 GPT-3 是在广泛多样的文本语料库上进行预训练的,因此它可以成功执行数量惊人的 NLP 任务,而无需用户提供任何额外的示例数据。

Transformer型号

神经网络构成了深度学习的核心。它们的名称和结构受到人类大脑的启发,模仿了生物神经元相互发出信号的方式。神经网络是串联工作的神经元网络或电路。神经网络创新可以提高模型在下游任务上的性能,因此人工智能科学家不断致力于神经网络的新架构。一项这样的发明彻底改变了我们今天所知的 NLP:变压器。Transformer是一种机器学习模型,它一次处理一系列文本(而不是一次处理一个单词),并且具有理解单词之间联系的强大机制。

序列到序列模型

研究人员谷歌和多伦多大学在 2017 年的一篇论文中介绍了变压器模型的想法:

我们提出了一种新的简单网络架构 Transformer,它完全基于注意力机制,完全摒弃了递归和卷积。对两个机器翻译任务的实验表明,这些模型在质量上更优越,同时更可并行化,并且需要的训练时间显着减少。2

Transformer 模型的主干是序列到序列架构。序列到序列(Seq2Seq)将给定的元素序列(例如句子中的单词)转换为另一个序列,例如不同语言的句子;句子依赖于序列,因为词序对于理解句子至关重要。

Seq2Seq 模型特别擅长翻译,将一种语言的单词序列转换为另一种语言的不同单词序列。谷歌翻译于 2016 年底开始在生产中使用基于 Seq2Seq 的模型。

Seq2Seq 模型由两部分组成:编码器和解码器。将编码器和解码器想象成人类翻译,他们每个人只能说两种语言,每个人都有不同的母语。对于我们的示例,我们会说编码器是以法语为母语的人,而解码器是以英语为母语的人。两者有共同的第二语言:假设是韩语。要将法语翻译成英语,编码器将法语句子转换成韩语(称为context)并将上下文传递给解码器。由于解码器理解韩语,他或她现在可以将韩语翻译成英语。他们一起工作,可以将法语翻译成英语,如图所示图 1-1。

?

图 1-1。Seq2Seq 模型(神经机器翻译)

Transformer 注意力机制

变压器发明架构是为了提高人工智能在机器翻译任务上的性能。“Transformers 最初是作为语言模型,”Kilcher 解释说,“甚至没有那么大,但后来它们变得很大。”

要使用变压器模型,您需要了解另外一个技术概念:注意力。注意机制是一种模仿认知注意的技术:它逐个查看输入序列,并根据概率在每个步骤中确定序列的其他部分是重要的。

例如,看句子“The cat 一旦吃了老鼠就坐在垫子上”。这句话中的“它”是指“猫”还是“垫子”?变压器模型可以将“它”与“猫”紧密联系起来。这就是注意力。

回到我们的编码器和解码器示例,假设编码器写下对句子语义很重要的关键字,并将它们与翻译一起提供给解码器。这些关键字使解码器的翻译变得更加容易,他们现在知道句子的哪些部分是重要的,哪些术语给出了句子的上下文。

这Transformer 模型有两种类型的注意力:自我注意力(句子中单词的连接)和编码器-解码器注意力(源句子中的单词与目标句子中的单词之间的连接)。

注意力机制帮助转换器滤除噪音并专注于相关的内容:将语义关系中的两个单词相互连接起来,而这些单词本身并没有任何明显的指向彼此的标记。

Transformer 模型受益于更大的架构和更大量的数据。对大型数据集进行培训并针对特定任务进行微调可以改善结果。与任何其他类型的神经网络相比, Transformers更擅长理解句子中单词的上下文。GPT 只是变压器的解码器部分。

现在你知道 GPT 是什么意思,让我们来谈谈那个“3”——以及 1 和 2。

GPT-3 简史

GPT-3由创建,并且是一个重要的里程碑,OpenAI,总部位于旧金山的 AI 研究先驱。OpenAI 的既定使命是“确保通用人工智能造福全人类”。通用人工智能_是一种人工智能,它不仅限于专门的任务,而是在各种任务中表现出色,就像人类一样。

GPT-1

开放人工智能于 2018 年 6 月介绍了 GPT-1。开发人员的主要发现是,将 Transformer 架构与无监督预训练相结合产生了可喜的结果。他们写道,GPT-1 针对特定任务进行了微调,以实现“强大的自然语言理解”。

GPT-1 是通向具有通用语言能力的语言模型的重要垫脚石。事实证明,语言模型可以有效地进行预训练,这可以帮助它们很好地泛化。该架构只需很少的微调就可以执行各种 NLP 任务。

GPT-1 使用Book Corpus数据集,其中包含大约七千本未出版的书籍,以及用于训练模型的自注意转换器的解码器部分。该架构与原始变压器中的架构基本相同。该模型有 1.17 亿个参数。GPT-1 为未来的模型开辟了道路,可以通过更大的数据集和更多参数更好地释放这种潜力。

由于预训练,其成就之一是在问答 (Q&A) 和情绪分析等各种 NLP 任务上的零样本表现能力不错。零样本学习是模型在过去没有见过任何此类示例的情况下执行任务的能力;该模型应该无需查看任何示例即可理解任务。零样本任务转移是一种设置,其中模型只显示很少或没有示例,并要求根据示例和说明来理解任务。

GPT-2

在2019 年 2 月,OpenAI 推出了 GPT-2,它比 GPT-1 更大,但在其他方面非常相似。主要区别在于 GPT-2 可以多任务处理。它成功地证明了语言模型可以在多个任务上表现良好,而无需接受这些任务的任何训练示例。

GPT-2 表明,在更大的数据集上进行训练并拥有更多参数可以提高语言模型理解任务的能力,并在零样本设置中超越许多任务的最新技术。它还表明,更大的语言模型在自然语言理解方面会更好。

为了创建一个广泛的、高质量的数据集,作者从 Reddit 上抓取数据,并从平台上被支持的文章的出站链接中提取数据。结果数据集,WebText,拥有来自超过 800 万份文档的 40GB 文本数据,远远大于 GPT-1 的数据集。GPT-2 在 WebText 数据集上进行了训练,有 15 亿个参数,是 GPT-1 的 10 倍。

GPT-2 在多个下游任务数据集上进行了评估,例如阅读理解、摘要、翻译和问答。

GPT-3

为了构建更加健壮和强大的语言模型,OpenAI 构建了 GPT-3 模型。它的数据集和模型都比用于 GPT-2 的数据大两个数量级:GPT-3 有 1750 亿个参数,并且在混合了五个不同的文本语料库上进行了训练,这比用于训练 GPT 的数据集大得多-2。GPT-3 的架构与 GPT-2 基本相同。它在零样本和少样本设置中的下游 NLP 任务上表现良好。

GPT-3 具有撰写与人工撰写的文章无法区分的文章等功能。它还可以执行从未明确训练过的即时任务,例如求和、编写 SQL 查询,甚至编写 React 和 JavaScript 代码,并给出简单的英文描述。

笔记

少拍、单拍和零拍设置是零样本任务转移的特殊案例。在少数镜头设置中,模型提供了任务描述和适合模型上下文窗口的尽可能多的示例。在一次性设置中,模型仅提供一个示例,在零测试设置中,没有示例。

OpenAI 的使命宣言强调人工智能的民主和道德方面。民主维度在于决定通过公共 API 或应用程序编程接口发布模型的第三版 GPT-3:在网站或应用程序和用户之间来回发送信息的软件中介。

蜜蜂充当信使,允许开发人员在应用程序和用户之间建立新的编程交互。通过 API 发布 GPT-3 是一项革命性的举措。直到 2020 年,由领先研究实验室开发的强大 AI 模型仅可供少数人使用——从事这些项目的研究人员和工程师。OpenAI API 让世界各地的用户通过简单的登录即可前所未有地访问世界上最强大的语言模型。(OpenAI 此举的商业原理是创建一个称为“模型即服务”的新范例,开发人员可以为每个 API 调用付费;我们将在第 3 章仔细研究。)

OpenAI 研究人员在研究 GPT-3 时尝试了不同的模型大小。他们采用了现有的 GPT-2 架构并增加了参数的数量。该实验的结果是一个具有新的非凡能力的模型,以 GPT-3 的形式出现。虽然 GPT-2 在下游任务上展示了一些零样本能力,但 GPT-3 在提供示例上下文时可以执行更多新颖的任务。

OpenAI 研究人员发现,仅仅扩展模型参数和训练数据集的大小就可以带来如此非凡的进步,这一点非常了不起。他们普遍乐观地认为,即使对于比 GPT-3 大得多的模型,这些趋势也会继续下去,从而使更强大的学习模型能够通过对小样本量进行微调来进行小样本或零样本学习。

作为你读了这本书,专家估计基于万亿参数的语言模型可能正在构建和部署。我们已经进入了大型语言模型的黄金时代,现在是您参与其中的时候了。

GPT-3 引起了公众的广泛关注。麻省理工学院技术评论认为 GPT-3是 2021年10 项突破性技术之一。它在以接近人类的效率和准确性执行一系列通用任务方面的绝对灵活性是它如此令人兴奋的原因,作为早期采用者Arram Sabeti 发推文(图 1-2)。

?

图 1-2。来自Arram Sabeti的推文

API 版本创造了 NLP 的范式转变,并吸引了大量的 beta 测试人员。创新和初创企业以闪电般的速度接踵而至,评论员将 GPT-3 称为“第五次工业革命”。

据 OpenAI 称,在 API 推出后的短短 9 个月内,人们就用它建立了 300 多家企业。尽管这种突然性,一些专家认为兴奋并没有被夸大。巴克兹·阿万是一名开发者转变为企业家和影响者,并且是 OpenAI API 开发者社区的主要声音之一。他有一个YouTube 频道“Bakz T. Future”和一个播客。Awan 认为 GPT-3 和其他模型实际上“被低估了它们的实用性、友好性、有趣性和强大性。这几乎令人震惊。”

丹尼尔·埃里克森拥有基于 GPT-3 的产品的 Viable 的首席执行官称赞该模型能够通过他所说的从大型数据集中提取洞察力基于提示的开发:

走这条路的公司涵盖用例,例如为广告和网站生成副本。设计理念相对简单:公司接收您的数据,将其发送到提示中,并显示 API 生成的结果。它解决了一个可以通过单个 API 提示轻松完成的任务,并将 [a] UI 包裹在其周围以将其交付给用户。

Erickson 看到这类用例的问题是它已经人满为患,吸引了许多雄心勃勃的初创公司创始人与类似的服务竞争。相反,Erickson 建议像 Viable 那样查看另一类用例。数据驱动的用例不像即时生成用例那样拥挤,但它们更有利可图,并且允许您轻松创建安全“护城河”。

埃里克森说,关键是建立一个可以不断添加的大型数据集,并可以提供潜在的见解。GPT-3 将帮助您从中提取有价值的见解。在 Viable,这是让他们轻松获利的模式。Erickson 解释说:“人们为数据支付的费用比为快速输出支付的费用要多得多。”

它应该需要注意的是,技术革命也带来了争议和挑战。GPT-3 对于任何试图创建叙事的人来说都是一个强大的工具。如果没有非常小心和善意的意图,我们将面临的一项挑战是遏制使用该算法传播错误信息活动的尝试。另一种方法是消除其用于生成大量低质量数字内容的用途,这些内容将污染互联网上可用的信息。另一个问题是其数据集的局限性,这些数据集充满了各种偏见,可以通过这项技术放大。我们将仔细研究这些和更多挑战第 6 章,以及讨论 OpenAI 为解决这些问题所做的各种努力。

访问 OpenAI API

作为到 2021 年,市场已经产生了几个专有的 AI 模型,它们的参数比 GPT-3 更多。但是,只有公司研发墙内的少数人可以访问它们,因此无法评估他们在现实世界 NLP 任务中的表现。

使 GPT-3 易于访问的一个因素是其简单直观的“文本输入,文本输出”用户界面。它不需要复杂的梯度微调或更新,您也无需成为专家即可使用它。这种可扩展参数和相对开放访问的组合使 GPT-3 成为迄今为止最令人兴奋,并且可以说是最相关的语言模型。

由于 GPT-3 的非凡功能,在安全性和误用方面存在与开源相关的重大风险,我们将在第 7 章中介绍。考虑到这一点,OpenAI 决定不公开发布 GPT-3 的源代码,并通过 API 提出了一种独特的访问共享模型。

该公司决定最初以有限的 beta 用户列表的形式发布对 API 的访问权限。申请流程要求人们填写一份表格,详细说明他们的背景和请求 API 访问的原因。只有获得批准的用户才能被授予使用名为 Playground 的接口访问 API 的私有测试版的权限。

在早期,GPT-3 Beta 访问的等待名单由数万人组成。OpenAI 迅速管理开始涌入的应用程序,分批添加开发人员,同时密切监控他们的活动和有关 API 用户体验的反馈,以不断改进它。

由于安全措施取得的进展,OpenAI 于 2021 年 11 月取消了等待名单。GPT-3 现在可以通过简单的登录公开访问。这是 GPT-3 历史上的一个重要里程碑,也是社区高度要求的举措。要获得 API 访问权限,只需转到注册页面,注册一个免费帐户,然后立即开始试验。

新用户最初会获得一个免费积分池,允许他们自由地试验 API。学分的数量相当于创建了三本平均长度的小说的文本内容。使用免费积分后,用户开始为使用付费,或者,如果他们有需要,他们可以向 OpenAI API 客户支持请求额外的积分。

OpenAI 努力确保以负责任的方式构建基于 API 的应用程序。出于这个原因,它提供了工具、最佳实践和使用指南来帮助开发人员将他们的应用程序快速、安全地投入生产。

这公司还创建了内容指南,以阐明 OpenAI API 可以用来生成什么样的内容。为了帮助开发人员确保他们的应用程序用于预期目的、防止潜在的滥用并遵守内容指南,OpenAI 提供了一个免费的内容过滤器。OpenAI 政策禁止以不符合其章程中所述原则的方式使用 API ,包括宣扬仇恨、暴力或自残的内容,或旨在骚扰、影响政治进程、传播错误信息、垃圾邮件内容的内容, 等等。

一旦你注册了一个 OpenAI 账户,你就可以进入第 2 章,在这里我们将讨论 API 的不同组件、GPT-3 Playground,以及如何将 API 的最大能力用于不同的用例。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。

标签: #GPT3第1章 #大型语言模型时代 #它的数据集和模型都比用于 #GPT2 #的数据大两个数量级GPT3 # #1750