04 GPT-3/4 对比其他模型胜在哪?

大家好,我是茶桁。

在前两节课中,我们一起体验了 OpenAI 提供的 GPT-3.5 系列模型的两个核心接口。一个是获取文本的 Embedding 向量,另一个是根据提示语生成补全的文本内容。通过这两种方法,我们可以在零样本或少样本的情况下进行情感分析任务。然而,你可能会有两个疑问。首先,Embedding 不就是将文本转换为向量吗?为什么不直接使用开源模型(如 Word2Vec、Bert)而要调用 OpenAI 的 API 呢?在我们的情感分析任务中,我们进行了一些简化处理。一方面,我们排除了相对中性的评分(3 分);另一方面,我们将 1 分、2 分和 4 分、5 分合并,将原本需要判断 5 个分类的问题简化了。那么,如果我们想要准确预测多个分类,是否也能如此简单呢?

在本节中,我们将通过代码和数据来回答第一个问题,尝试使用常见的开源模型,看看是否可以通过零样本学习的方式取得良好的效果。至于第二个问题,我们将在下节课中探讨,探索如何进一步利用 Embedding 结合机器学习算法来更好地处理情感分析问题。

什么是预训练模型?

预训练模型是指通过在大规模文本数据上进行学习而生成的模型,能够将文本转化为语义丰富的向量表示。OpenAI 的 GPT-3 是一种超大规模的预训练模型,其英文全称为“Generative Pre-trained Transformer”,即生成式预训练 Transformer。通过预训练模型,我们可以在没有见过具体问题的情况下,利用大量可用的文本数据进行学习。

由于本文在其他平台已经成为收费文章,为了避免损害付费会员权益,所以此处做删减处理。

希望继续观看的,请订阅我的公众号。

04 GPT-3/4 对比其他模型胜在哪?

https://hivan.me/GPT-3-VS-Other-Model/

作者

Hivan Du

发布于

2023-05-11

更新于

2024-01-16

许可协议

评论