OpenAI 很快推出多模式人工智能助理:既能交谈,也可识物

2024-05-12 渥太华微生活
来源:鞭牛士Bianews

images.jpg

鞭牛士报道,5月12日消息,据The Information报道, OpenAI 已经向一些客户展示了一种新的多模式人工智能模型,该模型既可以与你交谈,也可以识别物体。

该媒体援引未透露姓名的消息人士的话说,这可能是该公司计划周一展示的一部分。

据报道,与现有的单独转录和文本转语音模型相比,新模型可以更快、更准确地解释图像和音频。

The Information写道,它显然能够帮助客户服务代理更好地理解呼叫者的语调,或者他们是否在讽刺,并且理论上,该模型可以帮助学生学习数学或翻译现实世界的手势。

该媒体的消息来源称,该模型在回答某些类型的问题方面可以超越 GPT-4 Turbo,但仍然容易出错。

n0151_p15_banner.jpg

开发人员 Ananay Arora 发布了上述通话相关代码的屏幕截图,他表示 OpenAI 也可能正在准备新的内置 ChatGPT 功能来拨打电话。

Arora 还发现了OpenAI 已配置用于实时音频和视频通信的服务器的证据。

如果下周公布的话,这一切都不是 GPT-5。首席执行官 Sam Altman明确否认其即将发布的公告与被认为比 GPT-4 “实质上更好”的模型有任何关系。该信息称 GPT-5 可能会在今年年底公开发布。

奥特曼还表示,该公司不会宣布推出新的人工智能搜索引擎。

但如果The Information 的报道属实,那么谷歌 I/O 开发者大会的进展仍可能会受到一些影响。谷歌一直在测试使用人工智能打电话。传闻中的项目之一是名为Pixie的多模式 Google Assistant 替代品,它可以通过设备的摄像头查看物体,并执行诸如指示购买地点或提供如何使用它们的说明等操作。

无论 OpenAI 计划发布什么内容,它都计划于周一上午 10 点(太平洋时间)/下午 1 点(东部时间)在其网站上进行直播。

二维码 | 渥太华微生活

编者注:新闻取自各大新闻媒体,新闻内容并不代表本网立场!文字和图片来自网络,版权归原作者所有。如有侵权,请速联系小编,立即删除。

150
全部评论 (0)
展开快速发表评论

科技资讯