OpenAI 昨天在没有大张旗鼓的情况下宣布了一项令人惊讶的消息。OpenAI 的旗舰前沿模型 GPT-4o 现在支持更多数量的输出令牌。
GPT-4o 的实验版本名为 GPT-4o Long Output,现在每个请求最多可支持 64,000 个输出令牌。这将有助于开发人员在需要较长时间完成的用例中使用 GPT-4o 模型。加入 OpenAI alpha 计划的开发人员可以使用 "gpt-4o-64k-output-alpha" 模型名称访问 GPT-4o 长输出版。
由于长补全的成本较高,OpenAI 提高了该模型的单位令牌定价。gpt-4o-64k-output-alpha 的价格为 6.00 美元/100 万个输入代币,18.00 美元/100 万个输出代币。
与此相关,微软昨天宣布发布 GPT-4o mini API,该 API 支持全球和美国东部地区的标准部署。微软将很快把它带到更多地区。
有了 GPT-4o mini 视觉支持,开发人员可以在涉及视觉识别、场景理解等应用中使用 API 处理图像和视频。此外,GPT-4o mini 还能从视觉输入中生成详细、上下文准确的文本输出。
微软 Azure 团队就 GPT-4o mini 在 Azure 上的可用性撰文如下:
随着视觉输入功能的增加,GPT-4o mini 扩展了其多功能性,为开发人员和企业开辟了新天地。这一增强功能允许用户处理和分析视觉数据,提取有价值的见解并生成全面的文本输出。
Azure 客户现在可以在 Azure OpenAI Studio Playground 中试用 GPT-4o mini,他们可以在这里了解有关该模型的更多信息。
OpenAI 和微软产品的这些进步表明,人工智能领域,尤其是语言和视觉模型领域,正在取得飞速发展。随着这些模型变得更加强大和易于使用,它们为开发人员和企业重新思考为消费者提供的体验开辟了新的可能性。