# primary2
**Repository Path**: lonerlin/primary2
## Basic Information
- **Project Name**: primary2
- **Description**: 基于python3.11版本的新的爱方思项目。
- **Primary Language**: Python
- **License**: GPL-3.0
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 0
- **Created**: 2025-04-19
- **Last Updated**: 2026-02-06
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
爱方思 AI 教学平台
让每个学生都能动手实践的人工智能实验室



## 爱方思平台是什么
爱方思 AI 教学平台是专为教育场景设计的全功能人工智能实验平台,核心包含 Python 虚拟环境、aitoolkit Python 库、若干 Mind + 扩展用户库,集成计算机视觉、语音交互、大模型交互等核心组件,还提供与简易硬件直接交互的渠道。
平台的 Python 环境已内置 aitoolkit 库,该库提供丰富 AI 功能接口;搭配的 Mind + 图形化编程界面可自动生成 Python 代码,帮助用户快速调用 AI 接口实现各类功能,无编程基础的学生也能轻松上手 AI 开发。
平台既能与爱方思课程无缝衔接,为学生提供完整 AI 实验环境、为教师提供便捷教学工具,也可作为独立开发环境,支持学生制作各类 AI 作品。
## 为什么要使用爱方思课程与平台
现有的大多数课程都是依托于某个企业的技术,工具环境绑定,授权许可,费用非常贵,课程本身内容也受到平台,或者某些硬件的限制。如果纯粹使用开源技术,虽然不受限制,但是技术多样,复杂,对师生的要求高,教学环境很难完善的配置。所以我们基于开源技术自己开发了一个平台,
我们的教学平台具有显著的自主性和灵活性。通过综合使用各种开源技术并进行技术封装,学生和老师可以自由地使用、修改平台,无需依赖任何外部供应商。
从成本控制的角度来看,师生仅需配置摄像头、耳机、麦克风,在普通的电脑室即可开展教学活动,无需建设专用的实验室。此外,如果配置了简单的开源模块,还可以实现对各种可调设备的控制,进一步丰富了教学和学习的方式,制作出形式更加多样的作品;如若没法配置开源模块进行硬件的控制,我们提供了一个模拟器,也可以实现简单硬件模拟效果。
此外,我们的平台在低性能机器上(没有GPU)也能表现出良好的运行效果,并简化了安装过程,非常适合实验室大批量机器的快速部署。更重要的是,该平台支持本机操作,无需联网,有效避免了网络问题对教学过程的干扰。
独特优势:
| 特性 | 说明 |
|---------------------|----------------------------------------------------------------------|
| **零成本教学** | 使用普通机房设备即可开展教学,无需专用硬件 |
| **全模块离线运行** | 所有AI模块(含大模型)支持断网环境使用 |
| **积木化编程** | Mind+图形化界面自动生成Python代码 |
| **跨学科融合** | 支持与物联网(I2C)、机器人(Arduino)等设备联动 |
## 平台的安装
**安装流程如下:**
1. LAVFilters-0.80-Installe,保证视频播放器解码正常。
2. OllamaSetup,大模型支持
3. MindPlus_Win_V1.8.1_RC3.0 图形化编程支持
4. AIToolkit(2.0.1) 系统核心,包括python环境,AI接口和扩展库等
5. 解压models.zip至安装路径下(包含了AI接口的各种模型),不要解压到其它地方,否则会部分应用会找不到模型路径。
6.MindPlusPatch 用于解决mind+的系统编码错误问题
7.打开ollamasetting对话框,设置模型路径为model的解压路径。
**详细的安装说明请参考 [安装说明](documents/install.md)**
## 快速开始
爱方思模块以mind+扩展库的形式发布,结合mind+积木模块和官方库使用。可以通过以下步骤导入爱方思扩展库:
1. 打开mind+并切换到Python模式
- 首先,启动mind+软件。
- 在界面的右上角,找到并点击选择“Python模式”。
2. 进入模块编程模式并查找扩展库
- 接着,在界面的左上角,点击“模块”选项,进入模块编程模式。
- 在此模式下,找到并点击界面左下角的“扩展”按钮。这个操作会打开一个导入库的新窗口。

3. 选择并导入用户库
- 在新打开的窗口中,选择“用户库”选项卡。
- 点击“导入用户库”按钮,这会弹出一个文件选择窗口。


4. 选择“爱方思”扩展库的安装路径
- 在文件选择窗口中,浏览到你的“爱方思”扩展库的安装路径。这个路径可能是类似“C:\AIToolkit2\mindplus\cv_api”这样的目录(注意这里假设了“cv_api”作为示例路径,实际应根据你的库实际安装位置来)。
- 在该目录下,找到并选中config.json文件(这是mind+扩展库常用的配置文件)。
- 点击“打开”按钮,开始导入“爱方思”扩展库。
-

5. 确认导入并返回主界面
- 导入过程完成后,返回到用户库窗口,你应该能看到“爱方思”扩展库已经被成功加载。
- 点击“返回”按钮,返回到mind+的主界面。


6. 使用“爱方思”扩展库
- 在mind+的主界面,滚动鼠标到模块库区域。
- 在模块库的底部,你会看到一个用户库抽屉按钮,点击这个按钮以展开用户库抽屉。
- 在抽屉中,你将能看到“爱方思”扩展库的所有模块。现在,你可以开始拖拽这些模块到你的编程区域,并使用它们来创建你的项目了。

7. 验证安装
- 选择计算机视觉用户库中的前三个模块,搭建如下的代码。
- 把USB摄像头接入计算机。
- 点击运行按钮,正常情况下,能够看到摄像头窗口的实时视频。

## 🧩 核心组件
爱方思平台的核心组件包括以下几个部分,各部分的详细说明请点击查看:
| 组件 | 功能 |
|---------------------------------|----------------------------------------|
| **[计算机视觉库](documents/cv.md)** | 集成图像分类,目标检测追踪,人体关键点识别,人脸识别等常用的计算机视觉功能 |
| **[语音交互库](documents/voice.md)** | 集成了语音识别与合成,声音播放等功能 |
| **[大模型工具箱](documents/llm.md)** | 集成Ollama大模型,支持本机大模型的快速访问,支持RAG与DAQ编程模式 |
| **[辅助窗口](documents/pet.md)** | 提供输入输出,聊天,音频录播,视频播放,文件对话框等辅助窗口功能 |
| **[i2C库](documents/iic.md)** | 支持与简单硬件的快速联动通信 |