dify

Dify 是一个开源的 LLM(大语言模型)应用开发平台,旨在通过可视化的工作流设计、RAG(检索增强生成)管道、Agent 能力管理、模型与工具集成、监控与运维等特性,帮助开发者快速从原型迈向生产环境。

最近更新: 3天前

DeepSeek-V3

这是一个基于混合专家(MoE)和多头潜在注意力(MLA)架构的开源大语言模型,在数学推理、代码生成等复杂任务中表现优秀。该模型总规模达 671B 参数,但每个 token 只激活其中的 37B 参数。即在处理输入时,并非所有“专家”都参与计算,而是选择一部分专家进行处理。通过激活部分参数(37...

最近更新: 4天前

llama2.c

纯 C 语言编写的 Inference Llama 2 仅需一个文件即可完成

最近更新: 11天前

minGPT

用 PyTorch 实现的 OpenAI GPT(生成式预训练 Transformer)训练的最小化版本

最近更新: 11天前

llm.c

llm.c 是一个简单、纯粹的 C/CUDA LLM 训练项目。不需要使用 245MB 的 PyTorch 或 107MB 的 cPython 就能用纯 C 语言训练 LLM。 更让人佩服的是,LLM.c 仅用约 1000 行干净的代码即可在 CPU/fp32 上实现 GPT-2 训练。它可...

最近更新: 11天前

Qwen3-VL

Qwen3-VL 是阿里云通义千问团队开发的多模态大语言模型系列。它在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力方面进行了全面升级。

最近更新: 11天前

nanochat

nanochat 是训练 LLM 的最简单实验性工具。它设计为可在单个 GPU 节点上运行,代码简洁且易于修改,涵盖了 LLM 的所有主要阶段,包括分词、预训练、微调、评估、推理和聊天用户界面。

最近更新: 11天前

nanoGPT

最简单、最快捷的中等规模 GPT 模型训练/微调库。

最近更新: 11天前

tabby

Tabby 是 GitHub Copilot 的本地开源替代品。它使用 StarCoder、DeepSeek Coder 或 Code Llama 等模型,为您常用的编辑器提供自动完成和内联建议功能。

最近更新: 11天前

superpowers

让 AI 编程助手拥有超能力的工作流框架:Superpowers 是一个完整的软件开发工作流框架,专为 AI 编程助手设计。它基于一套可组合的"技能"(Skills)系统,确保 AI 助手在开发过程中遵循最佳实践,能够自主完成从需求分析到代码实现的完整流程。

最近更新: 12天前

SuperClaude_Framework

将Claude Code转换为结构化开发平台:SuperClaude是一个元编程配置框架,通过行为指令注入和组件编排,将Claude Code转换为结构化开发平台。它提供系统化的工作流自动化,配备强大的工具和智能代理。

最近更新: 12天前

xiaozhi-esp32-server

本项目为xiaozhi-esp32提供后端服务,帮助您快速搭建ESP32设备控制服务器。Backend service for xiaozhi-esp32, helps you quickly build an ESP32 device control server.

最近更新: 3个月前

xiaozhi-esp32

An MCP-based chatbot | 一个基于MCP的聊天机器人

最近更新: 3个月前

happy-llm

📚 从零开始的大语言模型原理与实践教程

最近更新: 3个月前

n8n

n8n是一个开源、强大的工作流自动化工具,允许用户通过可视化方式连接不同的应用程序和服务。它将 AI 功能与业务流程自动化相结合,它可以帮助开发者和非技术人员创建复杂的工作流,实现数据在不同系统间的自动传输和处理。

最近更新: 5个月前

shimmy

Shimmy 是一个超轻量级(仅 5MB)的本地 AI 推理服务器,具备与 OpenAI API 兼容的接口、自动模型发现、热切换以及工具调用功能。采用 Rust 编写的单二进制文件方案,支持 GGUF 模型和 LoRA 微调适配器,完全免费且永久开源。

最近更新: 5个月前

trae-agent

Trae Agent 是一个基于 LLM 通用软件工程任务的智能体。它提供了一个 CLI 界面,可以理解自然语言指令,并使用各种工具和 LLM 提供商执行复杂的软件工程工作流。

最近更新: 6个月前

deer-flow

一个社区驱动的深度研究框架,它建立在开源社区的杰出工作基础之上。我们的目标是将语言模型与专业工具(如网络搜索、爬虫和 Python 代码执行)相结合,同时回馈使这一切成为可能的社区

最近更新: 6个月前

vllm

高吞吐、低内存大模型推理引擎,其设计初衷直击行业痛点:传统推理框架在处理多请求并发时,普遍存在KV缓存内存碎片化严重、GPU利用率低下等问题。通过 PagedAttention 这一革命性技术,vLLM实现了近零浪费的KV缓存管理,同时完美兼容OpenAI API协议,让开发者无需改造现有生态...

最近更新: 6个月前

ailearning

AiLearning:数据分析+机器学习实战+线性代数+PyTorch+NLTK+TF2

最近更新: 6个月前

搜索帮助