OpenAI的春季更新是一个更自然的聊天机器人

发布时间:2024-06-07 10:30:50 栏目:科技

    导读 大约一周的时间里,OpenAI 似乎已经准备好与谷歌竞争,并宣布推出基于 ChatGPT 的搜索引擎。但这次,谣言全错了。相反,在今天早些时候...

    大约一周的时间里,OpenAI 似乎已经准备好与谷歌竞争,并宣布推出基于 ChatGPT 的搜索引擎。但这次,谣言全错了。相反,在今天早些时候该公司的春季更新活动中,OpenAI 公布了对 ChatGPT 底层模型的一些适度升级——但方式令人惊讶,有时甚至令人不安。

    OpenAI 的重磅公告是新模型 GPT-4o。出乎意料的是,该公司透露 GPT-4o 并非只面向付费客户,而是免费向所有人开放。该公司将 GPT-4o 视为让与 AI 的互动更加“自然”的第一步,这一立场在演示过程中显得非常合理。

    GPT-4o 可与语音、文本和视觉配合使用,因此您可以使用您喜欢的任何类型的内容与 ChatGPT 进行交互。此外,OpenAI 还免费向所有人提供许多高级功能。免费用户可以通过 GPT Store 首次访问 GPT、上传图像(文档或图片)并与 ChatGPT 聊天,以及访问 ChatGPT 的记忆功能。最后一个功能特别有用:ChatGPT 会记住您在过去聊天中谈论的内容,因此您将来的聊天将受到这些对话的影响。

    付费用户仍然有高达 5 倍的容量限制,因此每月花费 20 美元是合理的。

    OpenAI 通过演示呼吸练习展示了新模型。演示者要求 ChatGPT 提供一些放松技巧,其中包括深呼吸的指示。然后,演示者快速而大声地呼吸,试图检查模型是否能识别出错误的技巧。事实上,模型纠正了这种行为,但有点不连贯:模型在给出有关呼吸技巧的反馈时不断断断续续。也就是说,你可以在模型说话时“自然地”打断它,所以演示者有可能在整个过程中都在无意中打断。

    从这里开始,演示者要求 ChatGPT 编一个故事。一开始,ChatGPT 可能就是这样,但一位演示者打断了他,要求在声音中加入更多情感。说实话,语音模型开始表现得像一个卡通配音艺术家,这令人印象深刻,尤其是当第二次被要求强调情感时。当被提示时,它甚至开始像一个典型的机器人一样说话。

    让我有点不爽的是,演示者展示了如何通过摄像头向 ChatGPT 发送实时信息,以分析周围环境。他们使用了一个简单的数学作业示例,但我不知道我是否准备好让 ChatGPT 持续访问我的环境。如果我想问它一个关于我面前某样东西的问题,一张图片或视频就可以了。为了进一步说明我的观点,在演示的这一部分,他们试图关闭模型,但它出乎意料地说了这样的话:“哇,你穿的衣服真好看。”是的,我来这里真的不是为了看人工智能的实时信息。

    它还可以从实时视频中识别面部表情,这又一次让人毛骨悚然。一位演示者将自己的脸放到视频中并询问他们长什么样,ChatGPT 说了类似“一块木头”的话,这位演示者很快就纠正了,说这是对他之前提交给聊天机器人的一张图片的回应。(当然了,简。)当他再次尝试 ChatGPT 时,它确实成功 识别了他的面部表情。

    GPT-4o 还可以进行实时翻译,该团队进行了现场演示。一个人假装自己只会说意大利语,而另一个人则说自己只会说英语:据我所知,实时翻译效果很好:ChatGPT 用意大利语说话,我不得不相信 OpenAI 所说的一切都是正确的。

    根据演示,GPT-4o 将在未来几周内推出,我期待着对其进行测试。在此之前,我对这次体验感到有点不安。语音效果非常逼真,有时感觉非常自然,但又完全不自然。ChatGPT 将体验“人性化”的时刻,例如在被纠正后说“哦,我真傻”或“嗯,这更有意义”。当然,这令人印象深刻,但我不确定我是否想在我的生活中使用这项技术。计算机明显是计算机有什么问题?为什么我需要假装我的人工智能真的活着?无论如何,我不会一直打开那个直播。

免责声明:本文由用户上传,如有侵权请联系删除!