Google一直走在最前沿,可以帮助组织和访问使用书面和口头格式传达的信息。它发明了机器学习技术,可帮助公司了解搜索查询的意图。
根据Google的说法,语言是计算机科学中最困难的难题之一,而对话中更具挑战性的部分是对话。这家搜索巨头已经推出了LaMDA-对话应用语言模型,作为解决这一难题的垫脚石。它可以以自由流动的方式处理似乎无数的主题,该功能可以解锁与技术交互的更自然的方式以及具有各种潜在应用的全新类别。
Google在其博客中描述:
尽管对话往往围绕特定主题展开,但它们的开放性意味着他们可以从一个地方开始,到完全不同的地方结束。与朋友聊天有关电视节目的聊天可能演变成对节目拍摄国家/地区的讨论,然后才开始就该国最好的地区美食展开辩论。
LaMDA的对话技巧已建立在Transformer的基础上,而Transformer也是许多近期语言模型(例如BERT和GPT-3)的基础。Transformer是Google Research在2017年发明并开源的一种神经网络架构。
该体系结构产生了一个模型,可以训练该模型来读取许多单词,注意这些单词之间的相关性,然后预测它认为接下来会出现的单词。与其他语言不同,LaMDA接受了对话方面的培训,包括对话情境的敏感性。LaMDA不仅致力于实现明智性,而且还力求具体。
Google解释:
毕竟,“很好”是对几乎所有陈述的明智回应,就像“我不知道”是对大多数问题的明智回应一样。通过明确地与对话的上下文相关,令人满意的响应也往往是特定的。LaMDA已被训练为两者兼而有之。
LaMDA仍处于开发的早期阶段,明智和具体答复并不是Google试图在AI模型中构建的唯一特征。它需要有趣,有见地,令人信服且事实正确的答复。它还正在尝试最大程度地减少对技术的滥用。Google会仔细审查和审查所有信息,以使回复中没有偏见,不包含仇恨言论,也不提供误导性信息。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun50973.html