产品分类
- 电工电子电气实训设备
- 电力电子电机实训装置
- 过程控制实验装置
- 工业机器人智能制造
- 维修电工实训设备
- PLC自动化实训设备
- 数控机床实训考核装置
- 数控机床机械加工设备
- 机床电气实训装置
- 机电一体化实训设备
- 机械示教陈列柜
- 机械专业实验设备
- 传感器检测实验室设备
- 工业互联人工智能实训设备
- 特种作业操作实训考核设备
- 物联网实验实训设备
- 消防、给排水实训设备
- 网络布线实训室设备
- 电梯安装维修实训考核设备
- 热工暖通家电制冷实训设备
- 楼宇智能化实训设备
- 环境工程实验装置
- 流体力学实验装置
- 化工专业实验实训设备
- 新能源实验实训设备
- 电力供配电实训设备
- 煤矿矿山实验实训设备
- 液压气动实验室设备
- 教学仿真软件
- 轨道交通实验实训设备
- 船舶实训考核装置
- 驾驶模拟训练设备
- 新能源汽车实训设备
- 汽车发动机底盘实训台
- 汽车电器电子实训台
- 特种车工程机械实训设备
- 智能网联汽车实训设备
- 医学教学模型
- 中小学实验室设备
- 实验箱.实验仪
- 光电子通信实验装置
- 仪器设备.教学挂图
更多新产品
- LGRB-LX02型人工智能综合实验箱(昇腾版)
- LGRB-LX01型人工智能综合实验箱(本地大模型版)
- LGGY-BL23X型人形机器人七轴手臂科研应用
- LGGY-BL22X型具身智能机器人实训设备
- LGGY-BL21X型多机器人协同与视觉感知实训生产线
- LGGY-BL20X型桌面式智能制造生产线
- LGGY-BL19X型多功能智能建造机器人系统
- LGGY-BL18X型视觉感知与工业机器人实训平台
- LGGY-BL17X型3D工业视觉检测实训平台
- LGGY-BL16X型复合C型移动协作机器人实训设备
- LGGY-BL15X型复合B型移动协作机器人实训设备
- LGGY-BL14X型复合A型移动协作机器人实训设备
- LGGY-BL13X型AI智能交互机器人实训设备
- LGGY-BL12X型基于视觉的移动抓取机器人
- LGGY-BL11X型移动机器人应用开发平台
更多热点产品
- 汽车透明整车模型、运输车辆模型
- CLG-104型《电机与变压器》示教陈列柜(CD解说)
- CLG-109《模具》示教陈列柜(CD解说)
- CLG-107型 机械综合陈列柜
- CLG-102型 《机械零件》示教陈列柜
- LG-DCC型 机械振打袋式除尘实验装置
- LG-MFL01型 超滤微滤膜分离实验装置
- LG-NKS型 催化剂颗粒内扩散实验装置
- LG-CLDF型 多釜串联实验装置
- LG-YY18C型 气动与PLC实训装置(T型铝槽单面)
- LG-YY18B型 透明液压传动与PLC实训装置(T型铝槽单面
- LG-YYCS01型 液压传动与控制综合测试实验台
- LG-DY01B型 电液比例综合实验台
- LG-YYZN01型 智能型液压综合实验台
- LG-DLK01型 电力系统综合自动化实验平台
当前位置:首页 > 产品展示 > 高教职教设备 > 工业互联人工智能实训设备 > 工业互联人工智能实训设备
LGRB-LX01型人工智能综合实验箱(本地大模型版)
品牌:理工伟业 咨询电话:010-82827827 82827835

一、产品概述
实验箱面向人工智能相关专业,在硬件上,集成了计算机视觉系统、语音处理系统、机械手臂、以及手势传感器、温湿度传感器、大气压传感器等多种嵌入式应用模块,功能丰富、覆盖面广。在软件上,通过在运算单元中部署Linux操作系统、Python开发环境,以及人工智能通用软件框架和算法,为相关专业的应用开发提供了统一的通讯协议和接口,适用于多门课程的教学和实践。另外,运算单元中还完成了DeepSeek大模型的本地化部署,支持大模型技术开发、大模型+视觉、大模型+语音、大模型+机械臂等多个行业场景的应用实践。
二、产品功能和特点
1.开放性实验环境
实验代码可在Jupyter Notebook环境下进行。
2.开放全部源代码
开放全部软件框架和算法级源代码,支持二次开发,提供完善的实验指导书和技术文档,并提供产品相关软硬件的架构与设计方法文档。
3.部署本地大模型
完成了DeepSeek大模型的本地化部署,即部署于本机的运算单元中,除了可以开展大模型基础应用的学习外,还可以利用大模型和配置的视觉、语音、机械臂、传感器等设备进行交互,面向如智能安防、智能家居、智慧车间等典型场景,开展应用实践。
4.AI+视觉分拣
机械臂与视觉系统结合,可以对不同尺寸、外观的目标进行识别,实现目标分拣、智能码垛等人工智能基础实训项目,还可以基于深度学习模型,完成多种复杂物体的识别,开展企业级项目的实战训练。
5.AI+深度视觉
深度视觉与传统的2D视觉相比,可以实现物体的高度测量、距离测量、轮廓检测等,因此,可以完成障碍物距离检测、活体识别、目标跟踪等综合实验实训。
6.AI+语音处理
声源定位麦克风支持声音检测、智能语音识别、声源定位、波束成形等功能,在与AI处理器的交互下,可实现声场的空间特性采样,从而引导机械臂根据声音的指令执行指定动作。
7.AI+嵌入式传感器
提供温湿度传感器、运动传感器、气压传感器、光线传感器等12种嵌入式传感器,可以开展人脸监测与动态跟踪系统、人脸识别门禁系统、智能声控系统、智能温控系统等嵌入式方向的综合实验实训。
三、主要硬件参数
1.大模型运算单元
大模型运算单元采用NVIDIA公司的Jetson Orin Nano处理器,该处理器作为实验箱的核心模块,具备40Tops算力,预装Linux操作系统,部署Deepseek-R1、QWen2.5等大模型,以及所有智能产品模块所需的全部软件框架和SDK,并提供通用的通讯接口。
2.2D视觉系统
2D视觉系统采用一颗30万像素摄像头,可兼容ubuntu,linux和树莓派等操作系统。单独使用时,可对视野中的静态目标进行图像采集,进行基础的图像处理工作;与机器人协同使用时,通过视觉标定,可对机器人的动作进行引导,搭建机器人+视觉的执行系统,完成多种丰富的功能。
3.深度视觉系统
深度视觉采用一颗100万像素深度体感摄像头,可兼容ubuntu,linux和树莓派等操作系统,兼容USB3.0接口协议,可进行深度信息感知、人脸识别与测距等。
4.语音识别单元
采用可编程式麦克风阵列模块,支持声音识别、交互智能语音识别、声源定位、波束成形等功能。麦克风阵列是由一定数目的声学传感器(麦克风)组成,可用来对声场的空间特性进行采样并处理的系统。由于在复杂的声学环境下,噪声与语音信号在时间和频谱上常常是相互交叠的,再加上回波和混响的影响,利用单麦克风捕捉相对纯净的语音非常困难,而麦克风阵列融合了语音信号的空时信息,可以同时提取声源并抑制噪声。
5.机械手臂
机械手臂采用STM32单片机进行运动控制,Open Source CV为图像处理库,主流的Jupyter Lab为开发工具,使用Python3为主要编程语言。计算机视觉系统可与机械手臂搭建“手眼合一”的机器人视觉系统,从而使得机器人更具灵活性。机器人不仅可以实现颜色识别跟踪与抓取,还能与人体特征识别互动,非常适合用于基础教学相关的应用实践。
6.嵌入式传感器
嵌入式传感器主要由超声波传感器、人体检测传感器、温湿度传感器、心率传感器、气压传感器、数码管、蓝牙模块、陀螺仪、声音检测传感器、光线检测传感器等组成。每一个传感器均可与大模型运算单元连接,根据用户编辑的功能执行相应的动作。
7.高清显示屏
实验箱采用17英寸高清屏。
四、实验项目
(1)基础实训项目
1 Python程序设计
2 机器学习
3 深度学习
4 数字图像处理
5 机器视觉
6 深度视觉
7 嵌入式系统及应用
8 语音处理与传感器控制
9 基于视觉的机器人应用
(2)大模型+应用实训项目
1 大模型技术基础
2 大模型+视觉应用案例
3 大模型+语音应用案例
4 综合应用案例





