# primary2 **Repository Path**: lonerlin/primary2 ## Basic Information - **Project Name**: primary2 - **Description**: 基于python3.11版本的新的爱方思项目。 - **Primary Language**: Python - **License**: GPL-3.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-04-19 - **Last Updated**: 2026-02-06 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README

爱方思 AI 教学平台

让每个学生都能动手实践的人工智能实验室

![离线运行](https://img.shields.io/badge/离线运行-支持-success) ![无GPU要求](https://img.shields.io/badge/GPU要求-无需-critical) ![开源协议](https://img.shields.io/badge/许可证-GPL_3.0-blue) ## 爱方思平台是什么 爱方思 AI 教学平台是专为教育场景设计的全功能人工智能实验平台,核心包含 Python 虚拟环境、aitoolkit Python 库、若干 Mind + 扩展用户库,集成计算机视觉、语音交互、大模型交互等核心组件,还提供与简易硬件直接交互的渠道。 平台的 Python 环境已内置 aitoolkit 库,该库提供丰富 AI 功能接口;搭配的 Mind + 图形化编程界面可自动生成 Python 代码,帮助用户快速调用 AI 接口实现各类功能,无编程基础的学生也能轻松上手 AI 开发。 平台既能与爱方思课程无缝衔接,为学生提供完整 AI 实验环境、为教师提供便捷教学工具,也可作为独立开发环境,支持学生制作各类 AI 作品。 ## 为什么要使用爱方思课程与平台 现有的大多数课程都是依托于某个企业的技术,工具环境绑定,授权许可,费用非常贵,课程本身内容也受到平台,或者某些硬件的限制。如果纯粹使用开源技术,虽然不受限制,但是技术多样,复杂,对师生的要求高,教学环境很难完善的配置。所以我们基于开源技术自己开发了一个平台, 我们的教学平台具有显著的自主性和灵活性。通过综合使用各种开源技术并进行技术封装,学生和老师可以自由地使用、修改平台,无需依赖任何外部供应商。 从成本控制的角度来看,师生仅需配置摄像头、耳机、麦克风,在普通的电脑室即可开展教学活动,无需建设专用的实验室。此外,如果配置了简单的开源模块,还可以实现对各种可调设备的控制,进一步丰富了教学和学习的方式,制作出形式更加多样的作品;如若没法配置开源模块进行硬件的控制,我们提供了一个模拟器,也可以实现简单硬件模拟效果。 此外,我们的平台在低性能机器上(没有GPU)也能表现出良好的运行效果,并简化了安装过程,非常适合实验室大批量机器的快速部署。更重要的是,该平台支持本机操作,无需联网,有效避免了网络问题对教学过程的干扰。 独特优势: | 特性 | 说明 | |---------------------|----------------------------------------------------------------------| | **零成本教学** | 使用普通机房设备即可开展教学,无需专用硬件 | | **全模块离线运行** | 所有AI模块(含大模型)支持断网环境使用 | | **积木化编程** | Mind+图形化界面自动生成Python代码 | | **跨学科融合** | 支持与物联网(I2C)、机器人(Arduino)等设备联动 | ## 平台的安装 **安装流程如下:** 1. LAVFilters-0.80-Installe,保证视频播放器解码正常。 2. OllamaSetup,大模型支持 3. MindPlus_Win_V1.8.1_RC3.0 图形化编程支持 4. AIToolkit(2.0.1) 系统核心,包括python环境,AI接口和扩展库等 5. 解压models.zip至安装路径下(包含了AI接口的各种模型),不要解压到其它地方,否则会部分应用会找不到模型路径。 6.MindPlusPatch 用于解决mind+的系统编码错误问题 7.打开ollamasetting对话框,设置模型路径为model的解压路径。 **详细的安装说明请参考 [安装说明](documents/install.md)** ## 快速开始 爱方思模块以mind+扩展库的形式发布,结合mind+积木模块和官方库使用。可以通过以下步骤导入爱方思扩展库: 1. 打开mind+并切换到Python模式 - 首先,启动mind+软件。 - 在界面的右上角,找到并点击选择“Python模式”。 2. 进入模块编程模式并查找扩展库 - 接着,在界面的左上角,点击“模块”选项,进入模块编程模式。 - 在此模式下,找到并点击界面左下角的“扩展”按钮。这个操作会打开一个导入库的新窗口。 ![strart1](./documents/images/Getting_Started/start1.jpg ) 3. 选择并导入用户库 - 在新打开的窗口中,选择“用户库”选项卡。 - 点击“导入用户库”按钮,这会弹出一个文件选择窗口。 ![start2](./documents/images/Getting_Started/start2.jpg) ![start3](./documents/images/Getting_Started/start3.jpg) 4. 选择“爱方思”扩展库的安装路径 - 在文件选择窗口中,浏览到你的“爱方思”扩展库的安装路径。这个路径可能是类似“C:\AIToolkit2\mindplus\cv_api”这样的目录(注意这里假设了“cv_api”作为示例路径,实际应根据你的库实际安装位置来)。 - 在该目录下,找到并选中config.json文件(这是mind+扩展库常用的配置文件)。 - 点击“打开”按钮,开始导入“爱方思”扩展库。 - ![start4](./documents/images/Getting_Started/start4.jpg) 5. 确认导入并返回主界面 - 导入过程完成后,返回到用户库窗口,你应该能看到“爱方思”扩展库已经被成功加载。 - 点击“返回”按钮,返回到mind+的主界面。 ![start5](./documents/images/Getting_Started/start5.jpg) ![start6](./documents/images/Getting_Started/start6.jpg) 6. 使用“爱方思”扩展库 - 在mind+的主界面,滚动鼠标到模块库区域。 - 在模块库的底部,你会看到一个用户库抽屉按钮,点击这个按钮以展开用户库抽屉。 - 在抽屉中,你将能看到“爱方思”扩展库的所有模块。现在,你可以开始拖拽这些模块到你的编程区域,并使用它们来创建你的项目了。 ![start7](./documents/images/Getting_Started/start7.jpg) 7. 验证安装 - 选择计算机视觉用户库中的前三个模块,搭建如下的代码。 - 把USB摄像头接入计算机。 - 点击运行按钮,正常情况下,能够看到摄像头窗口的实时视频。 ![start8](./documents/images/Getting_Started/start8.jpg) ## 🧩 核心组件 爱方思平台的核心组件包括以下几个部分,各部分的详细说明请点击查看: | 组件 | 功能 | |---------------------------------|----------------------------------------| | **[计算机视觉库](documents/cv.md)** | 集成图像分类,目标检测追踪,人体关键点识别,人脸识别等常用的计算机视觉功能 | | **[语音交互库](documents/voice.md)** | 集成了语音识别与合成,声音播放等功能 | | **[大模型工具箱](documents/llm.md)** | 集成Ollama大模型,支持本机大模型的快速访问,支持RAG与DAQ编程模式 | | **[辅助窗口](documents/pet.md)** | 提供输入输出,聊天,音频录播,视频播放,文件对话框等辅助窗口功能 | | **[i2C库](documents/iic.md)** | 支持与简单硬件的快速联动通信 |