和 OpenAI CEO Sam Altman 对话
在这个视频中,Sam Altman讨论了GPT-3的意外成功以及GPT-4和未来版本的潜力。他还探讨了人工智能如何影响人类和社会,并讨论了人工智能是否有可能进行原创性的科学研究。他提到,人工智能的发展将是一个逐渐的过程,它们将成为人类工作的一部分,而不是取代人类。
利用 GPT-4、DALL.E 2 和ChatGPT 构建 AI 应用
Scrimba课程,学习者将学会如何使用OpenAI API添加人工智能功能到应用程序中。课程将涵盖Dall-E、GPT-4和ChatGPT API的使用,并教授如何使用自己的数据微调模型。课程包括三个项目,第一个项目将介绍OpenAI API的基础知识,第二个项目将涉及构建聊天机器人,第三个项目将教授微调模型的技能,以使聊天机器人能够回答特定于数据的问题。
超级智能的治理-Open AI
OpenAI最近发表了一篇博文,讨论了超级智能的治理,它指的是比 AGI 更强大的人工智能系统。他们表示,这些先进的人工智能系统可以在未来十年内超越人类的专业知识,我们需要积极应对它们的发展。
如何利用 ChatGPT 生成图标
本文介绍了如何使用 ChatGPT 生成图标创意。首先,作者撰写了一个简短的设计说明,然后通过 ChatGPT 生成与烹饪相关的“简单”物理对象,并提出了关于如何表示“简单烹饪”的图标的不同想法。作者还提供了一些有用的提示,例如限制结果数量、添加详细信息以及使用 Midjourney 生成图像等。最后,作者强调了这一过程的简单性,并提供了有关 AI 产品设计的工作坊的信息。
动态界面:如果未来 UI 可以自己设计自己会怎么样
该文章探讨了人工智能在软件应用层和用户界面方面的发展,并提出了动态界面的概念。作者认为,随着人工智能的加速学习周期,未来的界面将会自动迭代并根据用户反馈重新设计。此外,界面也可以更多地访问上下文数据,以预测用户需要什么。作者认为,模型、视图控制器将成为未来许多年的持续标准,并与软件高度分离。
ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter
ChatGLM 的官方教程,本教程详细介绍了GLM的技术背景和ChatGLM-6B的微调方案,包括P-tuning、LoRA和Full-Parameter等。P-tuning可以显著提高模型的性能,而LoRA和Full-Parameter可以在不增加计算成本的情况下提高模型的性能。
可以减少内存使用的模型微调方法
QLoRA – 一种有效的微调方法,可减少内存使用量,足以在单个 48GB GPU 上微调 65B 参数模型,同时保留完整的 16 位微调性能。
在 Minecraft 中接入 GPT-4 会怎样?
Voyager,这是第一个完全在上下文中玩 Minecraft 的终身学习代理。 Voyager 通过编写、提炼、提交和从技能库中检索代码不断改进自己。Voyager 迅速成为经验丰富的探险家。在 Minecraft 中,它获得的独特物品增加了 3.3 倍,行进距离增加了 2.3 倍,解锁关键科技树里程碑的速度比之前的方法快了 15.3 倍。软件以及开源,有代码基础的可以试试。
极端风险模型评估
讨论模型评估对于解决极端风险和做出有关模型训练、部署和安全的负责任决策的重要性。
NVIDIA 黃仁勳台大畢業致詞:請用 AI 做出不可思議之事
英伟达CEO黄仁勋在台湾大学演讲,分享了三个失败的故事,向学生们传授成功的秘诀。他强调了人工智能在各个方面重新定义了计算,是一个千载难逢的机遇,未来10年,新的AI计算机将取代价值超过一万亿美元的传统计算机。他还提醒企业和个人必须学会利用人工智能,做出令人惊奇的事情,并在AI作为副驾驶的情况下取得成功。
这里还有爱范儿整理的版本:https://mp.weixin.qq.com/s/YdtyRrUcfE844y45ASdz9g
产品设计师应该开始变得更加技术化
这篇文章介绍了作者是如何偶然进入设计领域的,以及他目前的工作日常和设计工作中面临的挑战。作者认为,产品设计师应该开始变得更加技术化,因为未来AI将会影响设计领域。最后,作者介绍了他们正在创建的Dive项目,旨在帮助设计师不断学习。
利用无监督学习提高语言理解能力
以下是 OpenAI 在 2018 年 6 月发布的 GPT-1 公告。
5 年前,扩大规模的决心已经存在。这么早的时间就对这条路线如此笃定。罗马不是一天建成的。
“我们越来越有兴趣了解我们在训练模型上花费的计算与结果输出之间的关系……”
“我们希望我们的结果能够激发进一步的研究,将这一想法应用于更大、更多样化的数据集。”
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun231074.html