Caffe

12个月前发布 161 0 0

Caffe(Convolutional Architecture for Fast Feature Embedding)(快速特征嵌入的卷积架构)是一个开源的深度学习框架,最初由加州大学伯克利分校的Yangqing Jia开发。 2017年4月,Facebook发布了Caffe2,其中包含了递归神经网络(RNN)等新功能。2018年3月底...

收录时间:
2024-01-21
CaffeCaffe
Caffe

Caffe(Convolutional Architecture for Fast Feature Embedding)(快速特征嵌入的卷积架构)是一个开源的深度学习框架,最初由加州大学伯克利分校的Yangqing Jia开发。

2017年4月,Facebook发布了Caffe2,其中包含了递归神经网络(RNN)等新功能。2018年3月底,Caffe2被并入PyTorch。

数据统计

相关导航

Vercel AI SDK

Vercel AI SDK

Vercel AI SDK是前端网站开发和托管平台及Next.js开发团队「Vercel」推出的,用于快速构建AI聊天机器人网站应用程序的开发套件,可以帮助开发人员使用JavaScript和TypeScript构建对话式的AI用户界面。 Vercel AI SDK的特性 支持React/Next.js、Svelte/SvelteKit和Vue/Nuxt等前端框架,以及Node.js、Serverless和Edge Runtime 内置各种AI模型的适配器,支持LangChain、OpenAI、Anthropic和Hugging Face等提供的大语言模型 提供交互式在线提示playground(sdk.vercel.ai),其中包含20个开源和云LLM。可以实时展示不同对话模型的聊天界面,并且可以快速生成代码。 提供多个AI聊天机器人的模板和示例,你可以克隆/复制Vercel提供的基于不同框架和模型开发的AI聊天机器人的初始模板 如何使用Vercel AI SDK 前提条件需要在电脑上安装Node.js 18+版本,如果要开发基于OpenAI的GPT聊天机器人,需要获得OpenAI API密钥 使用Next.js(pnpm dlx create-next-app my-ai-app)或者Svelte(pnpm create svelte@latest my-ai-app)等框架创建一个全新的项目,并定位到创建好的目录(cd my-ai-app) 安装依赖项,pnpm install ai openai-edge 配置 OpenAI API 密钥,.env.local在项目根目录中创建一个文件并添加您的 OpenAI API 密钥 创建API路由并连接UI,完成后使用pnpm run dev运行启动应用程序
新SiliconFlow

新SiliconFlow

SiliconFlow是什么 SiliconFlow(硅基流动)是生成式AI计算基础设施平台。SiliconFlow提供包括SiliconLLM大模型推理引擎、OneDiff高性能文生图/视频加速库,及SiliconCloud模型云服务平台等产品,降低AI模型部署和推理成本,提升用户体验。SiliconFlow提供快速高效的GenAI推理软件栈,提高应用开发效率并降低成本。SiliconFlow以顶尖的AI Infra技术能力,助力企业和开发者快速实现AI应用开发,推动AI技术的商业化和产业创新。 SiliconFlow的主要功能 GenAI推理软件栈:提供快速高效的软件栈,开发和部署生成式人工智能应用,降低开发和使用成本。 LLM推理能力:提供低时延、高吞吐的大语言模型推理服务,支持复杂的自然语言处理任务。 快速图像生成能力:提供行业验证的快速图像生成能力,支持文生图和图生图等多种图像生成模型。 云服务:提供易于上手的GenAI云服务,用户能快速开始使用AI服务而无需复杂的设置。 模型集成:集成多种开源大语言模型和图片生成模型,用户能根据需要选择和切换不同的模型。 API工厂:提供API接口,方便自定义和调用第三方API,实现个性化的AI应用开发。 如何使用SiliconFlow 访问官方网站:访问SiliconFlow的官方网站。 注册账户:按照提示完成注册和登录。 了解服务和文档:浏览网站提供的服务介绍和文档,了解不同模型的功能和使用场景。 选择模型:根据应用需求,选择合适的AI模型,如DeepSeek V2.5模型。 获取API接口:获取API接口信息,包括API的URL、请求方法、参数等。 集成API:将API集成到应用中。编写代码,发送请求到SiliconFlow的服务器,并处理返回的数据。 开发和测试:在本地环境中开发应用,并进行测试。 部署应用:将经过测试的应用部署到服务器或云平台。
LangChain

LangChain

大语言模型(LLM)正在成为一种变革性技术,使开发人员能够构建以前无法构建的应用程序。但是,单独使用这些LLM通常不足以创建一个真正强大的应用程序——当你可以将它们与其他计算或知识来源相结合时,便可能实现其真正的能力。 LangChain是一个用于开发由语言模型驱动的应用程序的框架,允许开发人员将语言模型连接到其他数据源并与其环境相交互。LangChain旨在帮助开发者在以下六个主要领域,按照复杂性递增的顺序: 📃 LLMs and Prompts: 这包括提示管理、提示优化、适用于所有 LLM 的通用界面以及用于处理 LLM 的通用实用程序。 🔗 Chains: 链不仅仅是单个 LLM 调用,而是调用序列(无论是对 LLM 还是对不同的实用程序)。 LangChain 为链提供标准接口、与其他工具的大量集成以及用于常见应用程序的端到端链。 📚 Data Augmented Generation: 数据增强生成涉及特定类型的链,这些链首先与外部数据源交互以获取数据以用于生成步骤。 这方面的例子包括对长文本的总结和对特定数据源的问答。 🤖 Agents: 代理涉及 LLM 做出关于采取哪些行动的决定,采取该行动,看到一个观察,并重复直到完成。LangChain 为代理提供了一个标准接口,可供选择的代理选择,以及端到端代理的示例。 🧠 Memory: 内存是链/代理调用之间持久状态的概念。 LangChain 提供了内存的标准接口、内存实现的集合以及使用内存的链/代理的示例。 🧐 Evaluation: [BETA] 众所周知,生成模型很难用传统指标进行评估。 评估它们的一种新方法是使用语言模型本身进行评估,LangChain 提供了一些提示/链来协助这一点。
MLX

MLX

MLX是由苹果的机器学习研究团队推出的用于机器学习的阵列框架,该开源框架专为 Apple Silicon 芯片而设计优化,从NumPy、PyTorch、Jax和ArrayFire等框架中吸取灵感,提供简单友好的使用方法,帮助开发人员在苹果M系列芯片上有效地开发、训练和部署模型。 MLX的主要功能 熟悉的 API:MLX 有一个紧随 NumPy 的 Python API。MLX 还拥有功能齐全的 C++ API,与 Python API 非常相似。 可组合的函数转换:MLX 支持用于自动微分、自动向量化和计算图优化的可组合函数转换。 惰性计算:MLX 中的计算是惰性计算,数组仅在需要时才会具体化。 动态图构建:MLX 中的计算图是动态构建的。更改函数参数的形状不会触发缓慢的编译,并且调试简单直观。 多设备:可以在任何支持的设备(CPU 和 GPU)上运行。 统一内存:MLX 和其他框架的主要区别在于统一内存模型,阵列共享内存。MLX 上的操作可以在任何支持的设备类型上运行,无需移动数据。

暂无评论

none
暂无评论...