当时,我们使用贝叶斯模型,这是一种强大的决策统计工具。正如你所说,peter,这些网型,并没有试图模仿大脑,也没有受到大脑运作方式的启发。但数据驱动网络的问题在于它们需要大量的特征工程。这意味着你必须进行大量的预处理才能使数据与模型兼容。模型不能直接吸收数据,所以你必须对数据进行预处理,因此性能并不好。
快进到 2010 年:我们开始重复使用神经网络。几十年前,神经网络就很流行,但突然间,它们变得更加有趣,因为它们可以在不进行任何特征工程的情况下处理数据。它们可以直接使用已使用的数据,而无需进行预处理。这使得它们 如果您使用潜在客户磁铁来 在许多不同的用例中用途广泛。看到性能突然飙升真是令人难以置信!
再过十年我们进
入了 transformers 和注意力模型的时代。现在,我 目标电话号码或电话营销数据 们不仅不需要特征工程,也不需要注释,这意味着它们可以消耗数十亿个标记的数据。这就是这些模型变得如此庞大的原因,也是我们称之为大型语言模型的原因。然而,我们观察到的行为是出乎意料的。我们发现,我们突然间可以用自然语言与模型对话:进行推理,生成内容、文本、视频、图像甚至计划。这就是它们如此令人兴奋的原因。
大型动作模型是大型语言模型的演化,它们能够理解如何行为、如何采取行动以及如何利用反馈来提高性能。
silvio savarese,salesforce 首席科学家
asseo:下一步是什么?接下来我们要去哪里?
savarese:下一步就是我们所说的大型动作模型,在我们看来,这是大型语言模型的演进。通过训练这些模型,它们可以预测和生成文本,并了解 brb 目录 如何表现、如何采取行动,以及如何利用来自环境的反馈来提高其性能。
施瓦以从最
初的大型动作模型的想法到现在推出agentforce,从最初的概念到创造出商业产品的能力之间的空间和时间是令人惊讶的!
人工智能的现状:现在发生什么了?
asseo:确实,这要归功于salesforce 的人工智能研究团队的出色工作,他们撰写了一些关于 transformer 的原创论文,后来促成了我们现在所知的生成式预训练 transformer(gpt)的诞生。