您几乎肯定听说过生成式人工智能。机器学习的这一分支已成为科技圈及其他领域最常用的流行语之一。
生成式人工智能如今无处不在。但它到底是什么?它是如何工作的?我们如何利用它让我们的生活(和工作)更轻松?
随着我们进入人工智能的新时代,生成式人工智能只会变得越来越普遍。如果您需要一本涵盖所有基础知识的解释书,那么您来对地方了。继续阅读以了解有关生成式人工智能的所有信息,从 20 世纪 60 年代的不起眼的起步到今天 – 以及它的未来,包括有关下一步可能会发生什么的所有问题。
什么是生成式人工智能?
生成式人工智能算法使用大型数据集来 手机号码数据 创建基础模型,然后将其作为可执行不同任务的生成式人工智能系统的基础。生成式人工智能最强大的功能之一是能够自我监督其学习,因为它可以识别允许其生成不同类型输出的模式。
为什么现在每个人都在谈论生成式人工智能?
近年来,生成式人工智能取得了重大进展。您可能已经使用过ChatGPT,它是该领域的主要参与者之一,也是最快获得 1 亿用户的人工智能产品。其他几种主流和新兴的人工智能工具也引起了人们的讨论:DALL-E、Bard、Jasper 等。
大型科技公司正在与初创公司展开竞争,以利用人工智能应用的力量,无论是改写搜索规则、达到显著的市值,还是在其他领域进行创新。竞争非常激烈,这些公司正在付出大量努力以保持领先地位。
生成式人工智能的历史
生成式人工智能的历史可 提高焦点和清晰度 以追溯到 20 世纪 60 年代,当时我们看到了早期的模型,例如 ELIZA 聊天机器人。ELIZA模拟与用户的对话,创建看似原创的响应。然而,这些响应实际上是基于规则的查找表,从而限制了聊天机器人的功能。
2014 年,谷歌研究员 Ian Goodfellow 推出了生成对抗网络 (GAN),这是生成式人工智能发展的一次重大飞跃。GAN 是一种使用两个网络(一个生成器和一个鉴别器)的神经网络架构。
生成器创建新内容,而鉴别器根据真实世界示例的数据集评估该内容。通过这一生成和评估过程,生成器可以学习创建越来越逼真的内容。
网络
网络是一组共享资源和通信协议的计算机。这些网络可以配置为有线、光纤或无线连接。在网络托管中,服务器网络在托管客户、提供商和最终用户之间存储和共享数据。
阅读更多
2017 年,谷歌的一个团队 比利时商业指南 发布了著名的 Transformers 论文《注意力就是一切》,这是另一个重大突破。论文中的“注意力”指的是根据文本中单词的位置提供上下文的机制,而不同语言的单词位置可能有所不同。研究人员建议专注于这些注意力机制,并放弃从文本中收集模式的其他方法。Transformers 代表了从逐字处理文本字符串到一次性分析整个字符串的转变,这使得更大的模型变得可行。
Transformers 架构的意义在性能和训练效率方面都十分重大。
基于此架构开发的生成式预训练 Transformer(简称 GPT)现已为 ChatGPT、GitHub Copilot 和 Google Bard 等各种 AI 技术提供支持。这些模型是在大量人类语言上进行训练的,被称为大型语言模型 (LLM)。