Opera已允许用户在本地下载和使用大语言模型

发布时间: 2024-04-03 20:04:16 来源: 196世界之最 栏目: 新奇科技 点击: 32

网络浏览器公司Opera今天宣布,现在用户可以在电脑上下载和使用大型语言模型(LLM)。该功能将首先向获得开发者流更新的OperaOne用户推出,用户可以从50多个系列的150多个模型...

网络浏览器公司 Opera 今天宣布,现在用户www.196nk.cn可以在电脑上下载和使用大型语言模型 (LLM)。该功能将首先向获得开发者流更新的Opera http://www.196nk.cnOne用户推出,用户可以从 50 多个系列的 150 多个模型中进行选择。

Opera已允许用户在本地下载和使用大语言模型

这些模型包括 Meta 的 Llama、Google 的 Gemma 和 Vicuna。该功能将作为 Opera 人工智能功能发布计划的一部分提供给用户,让用户提前使用部分人工智能功能。

该公司表示,它在浏览器中使用 Ollama 开放源码框架在计算机上运行这些模型。目前,所有可用的模型都是 Ollama 库的子集,但该公司希望将来能加入不同来源的模型。

Opera已允许用户在本地下载和使用大语言模型

该公司提到,每个变体都会占用本地系统超过 2GB 的空间。因此应该谨慎使用可用空间,以免存储空间耗尽。值得注意的是,Opera 在下载模型时不会做任何节省存储空间的工作。

"Opera现在首次在浏览器中直接提供了大量第三方本地LLM。"Opera 副总裁 Jan Standal 在一份声明中表示:"随着第三方本地 LLM 越来越专业,预计它们的规模可能会缩小。"

Opera已允许用户在本地下载和使用大语言模型

如果用户计划在本地测试各种模型,这项功能会很有用,但如果想节省空间196世界之最,也可http://www.196nk.cn以使用Quora's Poe和HuggingChat等大量在线工具来探索不同的模型。

自去年以来,Opera 一直在尝试人工智能功能。去年 5 月,该公司在侧边栏推出了一款名为 Aria 的助手,并于8 月将其引入 iOS 版本。今年 1 月,Opera 表示,由于欧盟数字市场法案(DMA)要求苹果放弃对移动浏览器 WebKit 引擎的强制要求,该公司正在为 iOS 构建一款自带引擎的人工智能浏览器。196世界之最

本文标题: Opera已允许用户在本地下载和使用大语言模型
本文地址: http://www.196nk.cn/xinqikeji/321331.html

如果认为本文对您有所帮助请赞助本站

支付宝扫一扫赞助微信扫一扫赞助

  • 支付宝扫一扫赞助
  • 微信扫一扫赞助
  • 支付宝先领红包再赞助
    声明:凡注明"本站原创"的所有文字图片等资料,版权均属196世界之最所有,欢迎转载,但务请注明出处。
    Fwupd从XZ压缩转为Zstd压缩:信任度更高 性能还略有改善Galaxy Z Fold 6原型机的外屏更高更宽 几乎与S24 Ultra相似
    Top