在 2023 年 Ray 峰会上,软件工程师、机器学习从业者、数据科学家、开发人员、MLOps 专业人员和架构师齐聚一堂,Perplexity AI 的创始人兼首席执行官 Aravind Srinivas 分享了在短短六个月内以不到 4 万美元构建第一个由 LLM 驱动的答案引擎的旅程。该峰会以其专注于构建和部署大规模应用程序而闻名,特别是在人工智能和机器学习方面,为Srinivas提供了一个完美的平台,深入研究Perplexity AI的工程挑战,资源限制和未来机遇。
Perfuity AI是一个革命性的研究助手,通过提供由事实和参考资料支持的准确和有用的答案,为自己开辟了一个利基市场。它具有对话界面、上下文感知和个性化功能,使其成为在线信息搜索的独特工具。Perplexity AI的目标是让搜索体验感觉像是一个知识渊博的助手,他了解你的兴趣和偏好,并能以与你产生共鸣的方式解释事情。
Perplexity AI是如何开发的
Perplexity AI的工作流程允许用户用自然的日常语言提问,AI努力理解查询背后的意图。它可能会进行来回对话以阐明用户的需求。高级应答引擎处理问题和任务,同时考虑上下文的整个对话历史记录。然后,它使用预测文本功能生成有用的响应,从多个源中选择最佳响应,并以简洁的方式总结结果。
Perplexity AI不仅仅是一个为用户查询提供直接答案的搜索引擎;它远不止于此。最初,该公司专注于文本到SQL和企业搜索,得到了Elon Musk,Nat Friedman和Jeff Dean等知名投资者的支持。11月,它推出了对朋友和Discord机器人的网络搜索,随后在一周后推出了Perplexity本身。
从那时起,该公司一直在不懈地努力提高其搜索能力,包括回答谷歌等传统搜索引擎无法回答的复杂查询的能力。它还推出了“研究助手”功能,可以根据上传的文件和文档回答问题。为了增强用户体验,Perplexity引入了“集合”,该功能允许用户保存和组织他们的搜索。
在技术方面,Perplexity已经开始为自己的模型提供服务,包括LLM,并推出了一个微调模型,将GPT-3.5的速度与GPT-4的功能相结合。它还在探索开源模型的使用,并拥有自己的自定义推理堆栈来提高搜索速度。
本月早些时候,Perplexity宣布了pplx-api,旨在成为访问Mistral 7B,Llama2 13B,Code Llama 34B,Llama2 70B,replit-code-v1.5-3b模型的最快方式之一。 PPLX-API 使开发人员可以轻松地将尖端的开源 LLM 集成到他们的项目中。
-
易用性:开发人员可以使用现成的最先进的开源模型,并在几分钟内开始使用熟悉的 REST API。
-
超快推理:我们精心设计的推理系统非常高效,延迟比复制低 2.9 倍,延迟比任意规模低 3.1 倍。
-
经过实战考验的基础设施:pplx-api 被证明是可靠的,在其 Perplexity 应答引擎和 Labs 操场中为生产级流量提供服务。
-
开源LLM的一站式商店:Perplexity的团队表示,它致力于在新的开源模型到来时添加它们。例如,该团队在发布后的几个小时内添加了Llama和Mistral模型,而无需预发布访问权限。
展望未来,Perplexity的未来计划包括进一步改进其搜索功能以及开发自己的模型,以保持对定价和定制的控制。正如阿拉文德·斯里尼瓦斯在 2023 年 Ray 峰会上分享的那样,困惑 AI 的旅程证明了
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun260623.html