腾讯混元大模型

10个月前发布 242 0 0

腾讯混元大模型是由腾讯自主研发的大语言模型,拥有超千亿参数规模,预训练语料超2万亿tokens,具有强大的中文理解与创作能力、逻辑推理能力,以及可靠的任务执行能力。 腾讯混元...

收录时间:
2024-01-21
腾讯混元大模型腾讯混元大模型
腾讯混元大模型

腾讯混元大模型是由腾讯自主研发的大语言模型,拥有超千亿参数规模,预训练语料超2万亿tokens,具有强大的中文理解与创作能力、逻辑推理能力,以及可靠的任务执行能力。

腾讯混元的产品功能

  1. 多轮对话。具备上下文理解和长文记忆能力,流畅完成各专业领域的多轮问答;
  2. 内容创作。支持文学创作、文本摘要、角色扮演能力,流畅、规范、中立、客观;
  3. 逻辑推理。准确理解用户意图,基于输入数据或信息进行推理、分析;
  4. 知识增强。有效解决事实性、时效性问题,提升内容生成效果;
  5. 多模态。支持文字生成图像能力,输入指令即可将奇思妙想变成图画。

腾讯混元的应用场景

  1. 文档场景。可提供文档创作、文本润色、文本校阅、表格公式及图表生成等能力,提高创作效率,提升创作体验;
  2. 会议场景。可提供会中问答、会议总结、会议待办项整理等能力,简化会议操作并提高会议效率;
  3. 广告场景。可提供智能化的广告素材创作,提供AI多模态生成能力,提升营销内容创作工作效率;
  4. 营销场景。构建智能导购,帮助商家提升服务质量和服务效率。

腾讯混元的官网入口

用户可通过hunyuan.tencent.com访问腾讯混元大模型的网页,或者微信小程序搜索「腾讯混元助手」,然后申请内测体验即可。

数据统计

相关导航

新Gemma

新Gemma

Gemma是什么 Gemma是由谷歌DeepMind和谷歌的其他团队开发的一系列轻量级、先进的开放AI模型,基于与Gemini模型相同的技术,旨在帮助开发者和研究人员构建负责任的AI应用。Gemma模型系列包括两种权重规模的模型:Gemma 2B 和 Gemma 7B,提供预训练和指令微调版本,支持多种框架,如JAX、PyTorch和TensorFlow,以在不同设备上高效运行。 Gemma的官方入口 Gemma的官网主页:https://ai.google.dev/gemma?hl=zh-cn Gemma的Hugging Face模型:https://huggingface.co/models?search=google/gemma Gemma的Kaggle模型地址:https://www.kaggle.com/models/google/gemma/code/ Gemma的技术报告:https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf 官方PyTorch实现GitHub代码库:https://github.com/google/gemma_pytorch Gemma的Google Colab运行地址:https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lora_tuning.ipynb Gemma的主要特性 轻量级架构:Gemma模型设计为轻量级,便于在多种计算环境中运行,包括个人电脑和工作站。 开放模型:Gemma模型的权重是开放的,允许用户在遵守许可协议的情况下进行商业使用和分发。 预训练与指令微调:提供预训练模型和经过指令微调的版本,后者通过人类反馈强化学习(RLHF)来确保模型行为的负责任性。 多框架支持:Gemma支持JAX、PyTorch和TensorFlow等主要AI框架,通过Keras 3.0提供工具链,简化了推理和监督微调(SFT)过程。 安全性与可靠性:在设计时,Gemma遵循Google的AI原则,使用自动化技术过滤训练数据中的敏感信息,并进行了一系列安全评估,包括红队测试和对抗性测试。 性能优化:Gemma模型针对NVIDIA GPU和Google Cloud TPUs等硬件平台进行了优化,确保在不同设备上都能实现高性能。 社区支持:Google提供了Kaggle、Colab等平台的免费资源,以及Google Cloud的积分,鼓励开发者和研究人员利用Gemma进行创新和研究。 跨平台兼容性:Gemma模型可以在多种设备上运行,包括笔记本电脑、台式机、物联网设备和云端,支持广泛的AI功能。 负责任的AI工具包:Google还发布了Responsible Generative AI Toolkit,帮助开发者构建安全和负责任的AI应用,包括安全分类器、调试工具和应用指南。 Gemma的技术要点 模型架构:Gemma基于Transformer解码器构建,这是当前自然语言处理(NLP)领域最先进的模型架构之一。采用了多头注意力机制,允许模型在处理文本时同时关注多个部分。此外,Gemma还使用了旋转位置嵌入(RoPE)来代替绝对位置嵌入,以减少模型大小并提高效率。GeGLU激活函数取代了标准的ReLU非线性激活,以及在每个Transformer子层的输入和输出都进行了归一化处理。 训练基础设施:Gemma模型在Google的TPUv5e上进行训练,这是一种专为机器学习设计的高性能计算平台。通过在多个Pod(芯片集群)上进行模型分片和数据复制,Gemma能够高效地利用分布式计算资源。 预训练数据:Gemma模型在大量英语数据上进行预训练(2B模型大约2万亿个token的数据上预训练,而7B模型则基于6万亿个token),这些数据主要来自网络文档、数学和代码。预训练数据经过过滤,以减少不想要或不安全的内容,同时确保数据的多样性和质量。 微调策略:Gemma模型通过监督式微调(SFT)和基于人类反馈的强化学习(RLHF)进行微调。这包括使用合成的文本对和人类生成的提示响应对,以及基于人类偏好数据训练的奖励模型。 安全性和责任:Gemma在设计时考虑了模型的安全性和责任,包括在预训练阶段对数据进行过滤,以减少敏感信息和有害内容的风险。此外,Gemma还通过了一系列的安全性评估,包括自动化基准测试和人类评估,以确保模型在实际应用中的安全性。 性能评估:Gemma在多个领域进行了广泛的性能评估,包括问答、常识推理、数学和科学问题解答以及编码任务。Gemma模型与同样规模或更大规模的开放模型进行了性能对比,在MMLU、MBPP等18个基准测试中,有11个测试结果超越了Llama-13B或Mistral-7B等模型。 开放性和可访问性:Gemma模型以开源的形式发布,提供了预训练和微调后的检查点,以及推理和部署的开源代码库。这使得研究人员和开发者能够访问和利用这些先进的语言模型,推动AI领域的创新。 常见问题 Gemma一词的含义是什么? Gemma在拉丁语中的意思是“宝石”。 Gemma是开源的吗? Gemma是开源开放的大模型,用户可在Hugging Face查看和下载其模型。 Gemma模型的参数量是多少? Gemma目前提供20亿和70亿参数量的模型,后续还会推出新的变体。
Stable Diffusion

Stable Diffusion

Stable Diffusion 是于2022年发布的一个基于深度学习的AI文本到图像生成模型,该模型主要用于生成以文本描述为条件的详细图像和插画,由初创公司 StabilityAI 与一些学术研究人员和非营利组织合作开发的。 如何运行Stable Diffusion?在线和本地运行的5种方法 Stable Diffusion是由初创公司Stability AI和来自慕尼黑大学以及Runway的研究人员在2022年发布的文本到图像的生成模型,本篇文章将讲解如何在线和本地运行Sta... AI教程 7个月前 Stable Diffusion是一个潜在扩散模型( Latent Diffusion Model)——深度生成性神经网络的一种。Stable Diffusion的代码和模型权重已公开发布,可以在大多数配备有适度GPU的电脑硬件上运行,而在此之前的专有文生图模型(如DALL-E和Midjourney)只能通过云计算服务访问。 Stable Diffusion在线版本主要可通过以下官方网站访问: DreamStudio版(StabilityAI官方推出) Stable Diffusion XL (StabilityAI旗下的ClipDrop推出)
悟道

悟道

2021年6月,北京智源研究院(BAAI)推出了悟道1.0的后续版本悟道2.0,作为中国第一个超大规模智能模型系统。悟道是一个语言模型,旨在在人类层面的思维上超越 OpenAI 的 GPT-3 和谷歌的 LaMDA。经过4.9TB的图像和文本训练,并在9个基准上超过了最先进(SOTA)水平,悟道比任何同行都更接近于实现通用人工智能(AGI)和人类水平的思维。 悟道接受了4.9 TB高质量英文和中文图像和文本的训练: 1.2TB中文文本数据 2.5TB中文图形数据 1.2TB英文文本数据 悟道是基于开源的 MoE 系统 FastMoE 进行训练的。MoE是一种机器学习技术,其工作原理如下: 将预测建模任务划分为子任务,针对每个子任务训练专家(学习者)模型,开发门控模型,该门控模型基于要预测的输入来学习咨询哪个专家,并组合预测。FastMoE使悟道能够并行咨询不同的专家模型,并切换到预测结果最好的模型。例如,如果输入是英文文本,悟道将使用预测模型,该模型可以在英文文本中生成回应。
Gradio

Gradio

Gradio是一个开源的Python库,用于构建演示机器学习或数据科学,以及web应用程序。你可以使用Gradio基于自己的机器学习模型或数据科学工作流快速创建一个漂亮的用户界面,让用户可以尝试拖放他们自己的图像、输入文本、录制他们自己的声音,并通过浏览器与你的演示程序进行交互。Google、HuggingFace、亚马逊、Meta、思科、VMware等公司都在使用。 Gradio适用于: 向客户/合伙人/用户/学生演示您的机器学习模型。 通过自动共享链接快速部署您的模型,并获得模型性能反馈。 在开发过程中使用内置的操作和解释工具交互式地调试模型。

暂无评论

none
暂无评论...