新讯飞星辰

3小时前发布 2 0 0

科大讯飞推出的AI大模型定制训练平台

收录时间:
2024-11-21
新讯飞星辰新讯飞星辰
新讯飞星辰

数据统计

相关导航

新豆包大模型

新豆包大模型

豆包大模型是什么 豆包大模型是字节跳动推出的AI大模型家族,包括 豆包PixelDance、豆包Seaweed 视频生成、文生图、图生图、同声传译、角色扮演、语音合成、声音复刻、语音识别、Function Call和向量化等多个模型。豆包大模型具备强大的语言理解、生成和逻辑能力,能进行个性化创作、情绪丰富的语音合成、高精度语音识别、多风格图像生成和顶级的视频生成。豆包大模型通过火山引擎提供服务,支持企业和开发者构建智能化应用,推动AI技术在多种业务场景中的落地。 豆包大模型的性能在多个评测中表现优异,例如在包括MMLU、BBH、GSM8K和HumanEval在内的11个业界公认的基准测试集中,Doubao-pro-4k模型的总体得分达到了76.8分,在代码能力、专业知识和指令遵循等方面的显著进步。 豆包大模型的主要功能 通用模型:字节跳动自研LLM模型,支持128K长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景。 视频生成:通过精准语义理解、强大动态及运镜能力创作高质量视频,支持文本和图片生成两种模式。 角色扮演:创作个性化角色,具备上下文感知和剧情推动能力,适合虚拟互动和故事创作。 语音合成:生成自然生动的语音,能表达多种情绪,适用于文本到语音转换。 声音复刻:快速克隆声音,高度还原音色和自然度,支持跨语种迁移,用于个性化语音合成。 语音识别:准确识别和转录语音,支持多语种,适用于语音命令和转录服务。 文生图:将文本转换为图像,擅长图文匹配和中国文化元素创作,用于图像生成和视觉内容创作。 图生图:基于现有图像生成新图像,支持风格变换、扩图、重绘和涂抹等创意操作。 同声传译:提供超低延时且自然高质量的实时翻译,支持跨语言同音色翻译,打破沟通中的语言壁垒。 Function Call:准确识别和抽取功能参数,适合复杂工具调用和智能交互。 向量化:提供向量检索能力,支持LLM知识库的核心理解,适用于多语言处理。 豆包大模型的功能特点 豆包通用模型Pro:字节跳动自研的高级语言模型,支持128K长文本处理,适用于问答、总结、创作等多种场景。 豆包通用模型Lite:轻量级语言模型,提供更低的成本和延迟,适合预算有限的企业使用。 豆包·视频生成模型:利用先进的语义理解技术,将文本和图片转化为引人入胜的高质量视频内容。 豆包·语言识别模型:具备高准确率和灵敏度,能够快速准确地识别和转写多种语言的语音。 豆包·Function Call模型:专为复杂工具调用设计,提供精确的功能识别和参数抽取能力。 豆包·文生图模型:将文字描述转化为精美图像,尤其擅长捕捉和表现中国文化元素。 豆包·语音合成模型:能够合成自然、生动的语音,表达丰富的情感和场景。 豆包·向量化模型:专注于向量检索,为知识库提供核心理解能力,支持多种语言。 豆包·声音复刻模型:仅需5秒即可实现声音的1:1克隆,提供高度相似的音色和自然度。 豆包·同声传译模型:实现超低延迟的实时翻译,支持跨语言同音色翻译,消除语言障碍。 豆包·角色扮演模型:具备个性化角色创作能力,能够根据上下文感知和剧情推动进行灵活的角色扮演。 豆包大模型的产品官网 产品官网:volcengine.com/product/doubao 如何使用豆包大模型 确定需求:明确项目或业务需求,比如是否需要文本生成、语音识别、图像创作、视频生成等。 选择合适的模型:根据需求选择合适的豆包大模型,例如文生图模型、语音合成、视频生成模型等。 注册和访问火山引擎:访问火山引擎官网注册账户,是字节跳动的云服务平台,提供豆包大模型的服务。 申请访问权限:在火山引擎平台上申请使用豆包大模型的权限,填写相关信息和使用场景。 API接入:获取相应的API接口信息,包括API的端点、请求方法和必要的认证信息。 开发和测试:根据API文档开发应用程序,将豆包大模型集成到你的业务流程中。进行充分测试,确保模型的输出符合预期。 部署应用:在测试无误后,将集成了豆包大模型的应用部署到生产环境。 监控和优化:监控应用的性能和模型的效果,根据反馈进行优化。 豆包大模型的产品定价 大语言模型 按tokens使用量付费: Doubao-lite-4k(包括分支版本lite-character):上下文长度4K、输入0.0003元/千tokens、输出0.0003元/千tokens、后付费、免费额度50万tokens。 Doubao-lite-32k:上下文长度32K、输入0.0003元/千tokens、输出0.0006元/千tokens后付费、免费额度50万tokens。 Doubao-lite-128k:上下文长度128K、输入0.0008元/千tokens、输出0.0010元/千tokens后付费、免费额度50万tokens。 Doubao-pro-4k(包括分支版本pro-character、pro-functioncall):上下文长度4K、输入0.0008元/千tokens、输出0.0020元/千tokens后付费、免费额度50万tokens。 Doubao-pro-32k:上下文长度32K、输入0.0008元/千tokens、输出0.0020元/千tokens后付费、免费额度50万tokens。 Doubao-pro-128k:上下文长度128K、输入0.0050元/千tokens、输出0.0090元/千tokens后付费、免费额度50万tokens。 按模型单元付费:独占的算力资源,更加独立可控 Doubao-lite-4k、Doubao-lite-32k:可承载性能(TPS)3000、按小时60元/个、包月28000元/个。 Doubao-lite-128k:可承载性能(TPS)4500、按小时240元/个、包月112000元/个。 Doubao-pro-4k、Doubao-pro-32k:可承载性能(TPS)3200、按小时160元/个、包月80000元/个。 Doubao-pro-128k:可承载性能(TPS)3500、按小时1200元/个、包月550000元/个。 视觉模型 豆包-文生图模型-智能绘图:推理服务、0.2元/次、后付费、免费额度200次。 语音大模型 Doubao-语音合成:推理服务、5元/万字符、后付费、免费额度5000字符。 Doubao-声音复刻:推理服务、8元/万字符、后付费、免费额度5000字符。 向量模型 Doubao-embedding:最长输入长度4K、输入0.0005元/千tokens、后付费、免费50万tokens。 模型精调 按tokens使用量(训练文本*训练迭代次数)计费,训练完成后出账。 Doubao-lite-4k、Doubao-lite-32k、Doubao-lite-128k:LoRA定价0.03元/千tokens、后付费。 Doubao-pro-4k、Doubao-pro-32k、Doubao-pro-128k:LoRA定价0.05元/千tokens、后付费。 更多模型及定价信息,可访问豆包大模型官网获取最新信息。 豆包大模型的应用场景 内容创作与媒体:使用文生图、图生图、视频生成模型生成文章配图、漫画、海报、短视频等视觉内容。语音合成模型为视频、动画制作配音。 客户服务:通过角色扮演模型提供虚拟客服和聊天机器人服务。使用语音识别和语音合成模型改善语音客服系统。 教育与培训:文生图模型辅助教学材料的制作,如生成教学插图。角色扮演模型创建个性化学习体验和虚拟教师。 娱乐与游戏:在游戏中使用角色扮演模型创建非玩家角色(NPC)的对话和行为。用语音合成模型为游戏角色提供自然的语言交流。 智能助手:结合语音识别和语音合成模型,开发智能个人助理。用文生图模型生成个性化的推荐内容。 市场与广告:用文生图模型自动生成广告创意和营销素材。用通用模型分析消费者反馈,优化广告文案。 企业自动化:通过Function Call模型自动化复杂的工作流程和工具调用。用向量化模型进行高效的信息检索和知识管理。 搜索与推荐:用向量化模型改善搜索引擎的准确性和响应速度。结合通用模型为用户推荐相关内容或产品。 法律与金融:用通用模型进行合同分析、案件研究和合规检查。用语音识别模型转录会议记录和访谈内容。
PaLM 2

PaLM 2

PaLM(Pathways Language Model) 是一种大型语言模型,即 LLM,类似于OpenAI 创建的 GPT 系列或Meta 的 LLaMA 系列模型。谷歌于 2022 年 4 月首次宣布推出 PaLM,超过了5400亿个训练参数。与其他 LLM 一样,PaLM 是一个灵活的系统,可以执行各种文本生成和编辑任务。例如,你可以将 PaLM 训练成像 ChatGPT 这样的对话式聊天机器人,或者你可以将它用于诸如总结文本甚至编写代码等任务。(这类似于谷歌今天也为其 Workspace 应用程序(如 Google Docs 和 Gmail)宣布的功能。) 在 2023 谷歌 I/O 大会上,谷歌 CEO 皮查伊宣布推出对标 GPT-4 的大模型 PaLM 2,并正式发布预览版本,改进了数学、代码、推理、多语言翻译和自然语言生成能力。 谷歌将为 PaLM 2 提供四种不同大小的版本,从最小到最大:Gecko、Otter、Bison 和 Unicorn。Gecko 非常轻巧,可以在移动设备上工作,并且速度足够快,即使在离线时也能在设备上运行出色的交互式应用程序。这种多功能性意味着可以对 PaLM 2 进行微调,以更多方式支持整个类别的产品,从而帮助更多人。 PaLM 2的特性 PaLM 2 是谷歌的下一代大语言模型,具有改进的多语言、推理和编码能力。 多语言性: PaLM 2 在多语言文本方面接受了更多的训练,涵盖 100 多种语言。这显著提高了它在多种语言中理解、生成和翻译细微差别文本(包括成语、诗歌和谜语)的能力,这是一个很难解决的问题。PaLM 2 还通过了“精通”级别的高级语言能力考试。 推理: PaLM 2 的广泛数据集包括科学论文和包含数学表达式的网页。因此,它展示了逻辑、常识推理和数学方面的改进能力。 编程: PaLM 2 在大量公开可用的源代码数据集上进行了预训练。这意味着它擅长 Python 和 JavaScript 等流行的编程语言,但也可以生成 Prolog、Fortran 和 Verilog 等语言的专用代码。
Ollama

Ollama

Ollama是一个用于在本地计算机上运行大型语言模型的命令行工具,允许用户下载并本地运行像Llama 2、Code Llama和其他模型,并支持自定义和创建自己的模型。该免费开源的项目,目前支持macOS和Linux操作系统,未来还将支持Windows系统​​​​。 此外,Ollama还提供了官方的Docker镜像,由此使用Docker容器部署大型语言模型变得更加简单,确保所有与这些模型的交互都在本地进行,无需将私有数据发送到第三方服务。Ollama在macOS和Linux上支持GPU加速,并提供了简单的命令行界面(CLI)以及用于与应用程序交互的REST API​​。 该工具对于需要在本地机器上运行和实验大语言模型的开发人员或研究人员来说特别有用,无需依赖外部云服务。 Ollama支持的模型 Ollma提供一个模型库,用户可以自行选择安装想要运行的模型,目前支持40+的模型,还在持续增加中,以下是可以下载的开源模型示例: 模型 参数大小 文件大小 下载运行命令 Neural Chat 7B 4.1GB ollama run neural-chat Starling 7B 4.1GB ollama run starling-lm Mistral 7B 4.1GB ollama run mistral Llama 2 7B 3.8GB ollama run llama2 Code Llama 7B 3.8GB ollama run codellama Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored Llama 2 13B 13B 7.3GB ollama run llama2:13b Llama 2 70B 70B 39GB ollama run llama2:70b Orca Mini 3B 1.9GB ollama run orca-mini Vicuna 7B 3.8GB ollama run vicuna
OpenBMB

OpenBMB

OpenBMB全称为Open Lab for Big Model Base,旨在打造大规模预训练语言模型库与相关工具, 加速百亿级以上大模型的训练、微调与推理,降低大模型使用门槛,与国内外开发者共同努力形成大模型开源社区, 推动大模型生态发展,实现大模型的标准化、普及化和实用化,让大模型飞入千家万户。 OpenBMB开源社区由清华大学自然语言处理实验室和智源研究院语言大模型加速技术创新中心共同支持发起。 发起团队拥有深厚的自然语言处理和预训练模型研究基础,近年来围绕模型预训练、提示微调、模型压缩技术等方面在顶级国际会议上发表了数十篇高水平论文。

暂无评论

none
暂无评论...