Keras

12个月前发布 159 0 0

Python版本的TensorFlow深度学习API

收录时间:
2024-01-21
KerasKeras
Keras
Python版本的TensorFlow深度学习API

数据统计

相关导航

新SiliconFlow

新SiliconFlow

SiliconFlow是什么 SiliconFlow(硅基流动)是生成式AI计算基础设施平台。SiliconFlow提供包括SiliconLLM大模型推理引擎、OneDiff高性能文生图/视频加速库,及SiliconCloud模型云服务平台等产品,降低AI模型部署和推理成本,提升用户体验。SiliconFlow提供快速高效的GenAI推理软件栈,提高应用开发效率并降低成本。SiliconFlow以顶尖的AI Infra技术能力,助力企业和开发者快速实现AI应用开发,推动AI技术的商业化和产业创新。 SiliconFlow的主要功能 GenAI推理软件栈:提供快速高效的软件栈,开发和部署生成式人工智能应用,降低开发和使用成本。 LLM推理能力:提供低时延、高吞吐的大语言模型推理服务,支持复杂的自然语言处理任务。 快速图像生成能力:提供行业验证的快速图像生成能力,支持文生图和图生图等多种图像生成模型。 云服务:提供易于上手的GenAI云服务,用户能快速开始使用AI服务而无需复杂的设置。 模型集成:集成多种开源大语言模型和图片生成模型,用户能根据需要选择和切换不同的模型。 API工厂:提供API接口,方便自定义和调用第三方API,实现个性化的AI应用开发。 如何使用SiliconFlow 访问官方网站:访问SiliconFlow的官方网站。 注册账户:按照提示完成注册和登录。 了解服务和文档:浏览网站提供的服务介绍和文档,了解不同模型的功能和使用场景。 选择模型:根据应用需求,选择合适的AI模型,如DeepSeek V2.5模型。 获取API接口:获取API接口信息,包括API的URL、请求方法、参数等。 集成API:将API集成到应用中。编写代码,发送请求到SiliconFlow的服务器,并处理返回的数据。 开发和测试:在本地环境中开发应用,并进行测试。 部署应用:将经过测试的应用部署到服务器或云平台。
MLX

MLX

MLX是由苹果的机器学习研究团队推出的用于机器学习的阵列框架,该开源框架专为 Apple Silicon 芯片而设计优化,从NumPy、PyTorch、Jax和ArrayFire等框架中吸取灵感,提供简单友好的使用方法,帮助开发人员在苹果M系列芯片上有效地开发、训练和部署模型。 MLX的主要功能 熟悉的 API:MLX 有一个紧随 NumPy 的 Python API。MLX 还拥有功能齐全的 C++ API,与 Python API 非常相似。 可组合的函数转换:MLX 支持用于自动微分、自动向量化和计算图优化的可组合函数转换。 惰性计算:MLX 中的计算是惰性计算,数组仅在需要时才会具体化。 动态图构建:MLX 中的计算图是动态构建的。更改函数参数的形状不会触发缓慢的编译,并且调试简单直观。 多设备:可以在任何支持的设备(CPU 和 GPU)上运行。 统一内存:MLX 和其他框架的主要区别在于统一内存模型,阵列共享内存。MLX 上的操作可以在任何支持的设备类型上运行,无需移动数据。
LangChain

LangChain

大语言模型(LLM)正在成为一种变革性技术,使开发人员能够构建以前无法构建的应用程序。但是,单独使用这些LLM通常不足以创建一个真正强大的应用程序——当你可以将它们与其他计算或知识来源相结合时,便可能实现其真正的能力。 LangChain是一个用于开发由语言模型驱动的应用程序的框架,允许开发人员将语言模型连接到其他数据源并与其环境相交互。LangChain旨在帮助开发者在以下六个主要领域,按照复杂性递增的顺序: 📃 LLMs and Prompts: 这包括提示管理、提示优化、适用于所有 LLM 的通用界面以及用于处理 LLM 的通用实用程序。 🔗 Chains: 链不仅仅是单个 LLM 调用,而是调用序列(无论是对 LLM 还是对不同的实用程序)。 LangChain 为链提供标准接口、与其他工具的大量集成以及用于常见应用程序的端到端链。 📚 Data Augmented Generation: 数据增强生成涉及特定类型的链,这些链首先与外部数据源交互以获取数据以用于生成步骤。 这方面的例子包括对长文本的总结和对特定数据源的问答。 🤖 Agents: 代理涉及 LLM 做出关于采取哪些行动的决定,采取该行动,看到一个观察,并重复直到完成。LangChain 为代理提供了一个标准接口,可供选择的代理选择,以及端到端代理的示例。 🧠 Memory: 内存是链/代理调用之间持久状态的概念。 LangChain 提供了内存的标准接口、内存实现的集合以及使用内存的链/代理的示例。 🧐 Evaluation: [BETA] 众所周知,生成模型很难用传统指标进行评估。 评估它们的一种新方法是使用语言模型本身进行评估,LangChain 提供了一些提示/链来协助这一点。
新魔乐社区

新魔乐社区

魔乐社区是什么 魔乐社区(Modelers)是天翼云与华为联合推出的AI开发者社区,提供TDMA(工具链、数据集、模型、应用)的托管展示服务和支撑系统。魔乐社区汇聚AI产业链资源,依托理事会成员单位,吸引开发者共同推动AI发展,解决行业难题,促进生态繁荣。社区提供免费算力,方便用户体验AI模型和应用效果。 魔乐社区的主要功能 模型托管与管理:提供模型库,用户能托管和分享用于自然语言处理、视觉和音频任务的AI模型。 数据集托管:托管用在各种AI任务的数据集,包括翻译、语音识别和图像分类等,供训练、评估和测试使用。 体验空间:提供机器学习和深度学习算法的应用案例,支持用户在浏览器中直接体验模型的交互式应用程序。 Git仓库服务:托管基于Git的仓库,支持用户和组织协作开发模型和代码。 工具套件集成:集成openMind Library和openMind Hub Client等工具套件,方便模型开发和管理。 如何使用魔乐社区 注册和登录:访问魔乐社区官方网站。按照提示完成登录和注册。  获取模型 访问模型库,获取平台上所有公开的模型。 根据模型标签或任务筛选所需的模型。 以PyTorch-NPU/qwen1.5_7b_chat模型为例,筛选或搜索找到模型。 点击模型卡片,进入模型详情页,查看模型介绍和操作指导。 根据模型详情页的指引,在线体验模型效果或下载模型文件。 参考环境安装文档进行详细安装步骤。 浏览和使用更多社区资源 数据集:访问和下载用于AI训练的数据集。 体验空间:用社区提供的在线环境进行模型测试和应用开发。 参与社区活动 课程和研讨:参与社区提供的课程和研讨交流。 竞赛和挑战:参加社区举办的AI竞赛和巅峰挑战。 使用工具链:安装和使用社区提供的工具链,进行模型开发和推理。 贡献和分享: 分享模型和应用:在社区中分享自己的AI模型和应用。 反馈和建议:基于社区的帮助中心提供反馈和建议。 魔乐社区的应用场景 智能客服系统:开发能理解用户查询,提供即时响应的聊天机器人。 自动驾驶汽车:基于计算机视觉技术识别道路标志、行人和障碍物,提高驾驶安全性。 健康监测应用:分析穿戴设备收集的数据,监测用户健康状况并提供健康建议。 个性化推荐系统:在电商网站或流媒体服务中,根据用户行为和偏好推荐商品或内容。 智能语音助手:创建能理解和执行语音命令的虚拟助手,如控制智能家居设备。

暂无评论

none
暂无评论...