快捷搜索:  

ibm文书正在watsonx上供给开源的mistral ai模子

"ibm文书正在watsonx上供给开源的mistral ai模子,这篇新闻报道详尽,内容丰富,非常值得一读。 这篇报道的内容很有深度,让人看了之后有很多的感悟。 作者对于这个话题做了深入的调查和研究,呈现了很多有价值的信息。 这篇报道的观点独到,让人眼前一亮。 新闻的写作风格流畅,文笔优秀,让人容易理解。 "

扩大模型选择范围,帮助企业以可信和灵活的方式扩展 AI

- IBM 提供 Mixtral-8x7B 的优化版本,该版本可将延迟时间最多缩短 75%

- IBM、第三方和开源模型的目录不断增加,为客户提供更多选择和灵活性

- 是watsonx 人工智能与数据平台上最新的开源模型,watsonx提供企业就绪的人工智能开发平台、数据存储和治理功能

[MD:Title]

(2024年3月11日,首都)IBM近日宣布,由Mistral AI公司开发的广受欢迎的开源Mixtral-8x7B大型语言模型(LLM)已经可在其watsonx人工智能与数据平台上使用。

IBM 提供了 Mixtral-8x7B 的优化版本,在内部测试中,与常规模型相比,该版本能够将吞吐量(即在给定时间段内可处理的数据量)提高50%。这可能可以将时间延迟减少 35-75%,从而加快获得洞察的时间,具体取决于批处理量的大小。这是通过一个称为量化的过程来达成的,该过程减少了 LLM 的模型大小和内存需求,进而可以加快处理速度,有助于降低成本和能耗。

Mixtral-8x7B 的加入扩展了 IBM 的开放、多模型战略,随时随地满足客户的需求,并为他们(They)提供选择和灵活性,使其可以跨业务来扩展其企业级人工智能解决方案。通过数十年的人工智能研发、与Meta和Hugging Face开放式协作,以及与模型领导者的合作伙伴关系,IBM 正在扩展其 watsonx.ai 模型目录,并引入新的功能、语言和模式。

IBM 的企业就绪基础模型选择及其 watsonx 人工智能和数据平台可帮助客户利用(Use)生成式人工智能获得新的洞察力和效率,并基于信任原则创建新的业务模式。IBM 可帮助客户根据所针对的业务领域(如金融)的合适用例及性价比目标来选择合适的模型。

Mixtral-8x7B 结合了稀疏建模与教授混合技术来构建, 稀疏建模 是只查找和使用数据中最重要部分以创建更高效的模型的创新技术;而 教授混合技术 是把擅长并解决不同部分问题的不同模型( 教授 )结合在一起的技术。Mixtral-8x7B 模型因其能够快速处理和分析海量数据以提供与上下文相关的见解而广为人知。

IBM 软件公司产品管理与增长高级副总裁 Kareem Yusuf 博士表示: 客户要求在部署最适合其独特用例和业务要求的模型时拥有选择权和灵活性。通过在watsonx上提供Mixtral-8x7B和其它模型,我们(We)不仅为客户提供了部署人工智能的可选性,还为人工智能构建者和业务领导者提供了一个强大的生态系统,使他们(They)能够利用(Use)工具和技术推动不同行业和领域的创新。

在同一周,IBM还宣布在watsonx上提供由ELYZA公司开源的日本(Japan)LLM模型ELYZA-japanese-Llama-2-7b。IBM 还在 watsonx 上提供 Meta 的开源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其它第三方模型,将来几个月还将推出更多模型。

关于IBM

IBM 是全球领先的混合云、人工智能及企业服务提供商,帮助超过 175 个我国和地区的客户,从其拥有的数据中获取商业洞察,简化业务流程,降低成本,并获得行业竞争优势。金融服务、网上和医疗健康(Health)等关键基础设施领域的超过 4000 家行政部门和企业实体依靠 IBM 混合云平台和 Red Hat OpenShift 快速、高效、安危地达成数字化转型。IBM 在人工智能、量子计算、行业云解决方案和企业服务方面的突破性创新为我们(We)的客户提供了开放和灵活的选择。对企业诚信、透明治理、社会(Society)责任、包容文化(Culture)和服务精神的长期承诺是 IBM 业务发展的基石。

 

IBM宣布在watsonx上提供开源的Mistral AI模型

您可能还会对下面的文章感兴趣:

赞(514) 踩(88) 阅读数(2494) 最新评论 查看所有评论
加载中......
发表评论