首页
  • GM-3568JHF
  • M4-R1
  • M5-R1
  • SC-3568HA
  • M-K1HSE
  • CF-NRS1
  • CF-CRA2
  • 1684XB-32T
  • 1684X-416T
  • RDK-X5
  • RDK-S100
  • C-3568BQ
  • C-3588LQ
  • GC-3568JBAF
  • C-K1BA
商城
  • English
  • 简体中文
首页
  • GM-3568JHF
  • M4-R1
  • M5-R1
  • SC-3568HA
  • M-K1HSE
  • CF-NRS1
  • CF-CRA2
  • 1684XB-32T
  • 1684X-416T
  • RDK-X5
  • RDK-S100
  • C-3568BQ
  • C-3588LQ
  • GC-3568JBAF
  • C-K1BA
商城
  • English
  • 简体中文
  • 1684XB-32T

    • 一、简介

      • AIBOX-1684XB-32简介
    • 二、快速上手

      • 初次使用
      • 网络配置
      • 磁盘使用
      • 内存分配
      • 风扇策略
      • 固件升级
      • 交叉编译
      • 模型量化
    • 三、应用开发

      • 开发简介

        • Sophgo SDK开发
        • SOPHON-DEMO简介
      • 大语言模型

        • 部署Llama3示例
        • Sophon LLM_api_server开发
        • 部署MiniCPM-V-2_6
        • Qwen-2-5-VL图片视频识别DEMO
        • Qwen3-chat-DEMO
        • Qwen3-Qwen Agent-MCP开发
        • Qwen3-langchain-AI Agent
      • 深度学习

        • ResNet(图像分类)
        • LPRNet(车牌识别)
        • SAM(通用图像分割基础模型)
        • YOLOv5(目标检测)
        • OpenPose(人体关键点检测)
        • PP-OCR(光学字符识别)
    • 四、资料下载

      • 资料下载
  • 1684X-416T

    • 简介

      • AIBOX-1684X-416简介
    • Demo简单操作指引

      • shimeta智慧监控demo的简单使用说明
  • RDK-X5

    • 简介

      • RDK-X5 硬件简介
    • 快速开始

      • RDK-X5 快速开始
    • 应用开发

      • AI在线模型开发

        • 实验01-接入火山引擎豆包 AI
        • 实验02-图片分析
        • 实验03-多模态视觉分析定位
        • 实验04-多模态图文比较分析
        • 实验05-多模态文档表格分析
        • 实验06-摄像头运用-AI视觉分析
      • 大语言模型

        • 实验01-语音识别
        • 实验02-语音对话
        • 实验03-多模态图片分析-语音对话
        • 实验04-多模态图片比较-语音对话
        • 实验05-多模态文档分析-语音对话
        • 实验06-多模态视觉运用-语音对话
      • ROS2基础开发

        • 实验01-搭建环境
        • 实验02-工作包的创建及编译
        • 实验03-运行 ROS2 话题通信节点
        • 实验04-ROS2 相机应用
      • 40pin-IO开发

        • 实验01-GPIO 输出(LED闪烁)
        • 实验02-GPIO 输入
        • 实验03-按键控制 LED
        • 实验04-PWM 输出
        • 实验05-串口输出
        • 实验06-IIC 实验
        • 实验07-SPI 实验
      • USB模块开发使用

        • 实验01-USB 语音模块使用
        • 实验02-声源定位模块使用
      • 机器视觉技术实战

        • 实验01-打开 USB 摄像头
        • 实验02-颜色识别检测
        • 实验03-手势识别体验
        • 实验04-YOLOv5物体检测
  • RDK-S100

    • 简介

      • RDK-S100 硬件简介
    • 快速开始

      • RDK-S100 硬件简介
    • 应用开发

      • AI在线模型开发

        • 实验01-接入火山引擎豆包 AI
        • 实验02-图片分析
        • 实验03-多模态视觉分析定位
        • 实验04-多模态图文比较分析
        • 实验05-多模态文档表格分析
        • 实验06-摄像头运用-AI视觉分析
      • 大语言模型

        • 实验01-语音识别
        • 实验02-语音对话
        • 实验03-多模态图片分析-语音对话
        • 实验04-多模态图片比较-语音对话
        • 实验05-多模态文档分析-语音对话
        • 实验06-多模态视觉运用-语音对话
      • ROS2基础开发

        • 实验01-搭建环境
        • 实验02-工作包的创建及编译
        • 实验03-运行 ROS2 话题通信节点
        • 实验04-ROS2 相机应用
      • 40pin-IO开发

        • 实验01-GPIO 输出(LED闪烁)
        • 实验02-GPIO 输入
        • 实验03-按键控制 LED
        • 实验04-PWM 输出
        • 实验05-串口输出
        • 实验06-IIC 实验
        • 实验07-SPI 实验
      • USB模块开发使用

        • 实验01-USB 语音模块使用
        • 实验02-声源定位模块使用
      • 机器视觉技术实战

        • 实验01-打开 USB 摄像头
        • 实验02-图像处理基础
        • 实验03-目标检测
        • 实验04-图像分割

机器视觉技术开发

实验3-手势识别体验

第一步:系统准备

sudo apt update && sudo apt upgrade -y

sudo apt install -y build-essential cmake pkg-config python3-dev python3-pip(如若已装python3可忽略)

第二步:创建虚拟环境

cd OPENCV
python3 -m venv rdkx5_vision_envsource rdkx5_vision_env/bin/activate

第三步:安装依赖

pip install --upgrade pip
pip install -r requirements.txt

第四步:测试环境

python3 mediapipe_gesture_demo.py

TOOLTOOL

示例程序包含以下功能:

- ✅ 实时手势检测 - 支持双手同时识别

- ✅ 数字手势识别 - 识别1-5的手指数量

- ✅ 特殊手势识别 - OK手势、点赞手势

- ✅ 性能监控 - 实时FPS显示

- ✅ 可视化反馈 - 手部关键点绘制

import cv2
import numpy as np
import math
import time

# 初始化摄像头
cap = cv2.VideoCapture(0)

# 设置窗口大小
window_width = 1280
window_height = 720

# 调整摄像头分辨率
cap.set(cv2.CAP_PROP_FRAME_WIDTH, window_width)
cap.set(cv2.CAP_PROP_FRAME_HEIGHT, window_height)

# 创建窗口
cv2.namedWindow('Hand Gesture Recognition', cv2.WINDOW_NORMAL)
cv2.resizeWindow('Hand Gesture Recognition', window_width, window_height)

# 创建调整肤色阈值的滑动条窗口
cv2.namedWindow('Skin Detection Controls')
cv2.resizeWindow('Skin Detection Controls', 400, 250)

# 创建肤色检测的HSV阈值滑动条
cv2.createTrackbar('H_min', 'Skin Detection Controls', 0, 179, lambda x: None)
cv2.createTrackbar('H_max', 'Skin Detection Controls', 20, 179, lambda x: None)
cv2.createTrackbar('S_min', 'Skin Detection Controls', 30, 255, lambda x: None)
cv2.createTrackbar('S_max', 'Skin Detection Controls', 150, 255, lambda x: None)
cv2.createTrackbar('V_min', 'Skin Detection Controls', 60, 255, lambda x: None)
cv2.createTrackbar('V_max', 'Skin Detection Controls', 255, 255, lambda x: None)

# 设置默认值
cv2.setTrackbarPos('H_min', 'Skin Detection Controls', 0)
cv2.setTrackbarPos('H_max', 'Skin Detection Controls', 20)
cv2.setTrackbarPos('S_min', 'Skin Detection Controls', 30)
cv2.setTrackbarPos('S_max', 'Skin Detection Controls', 150)
cv2.setTrackbarPos('V_min', 'Skin Detection Controls', 60)
cv2.setTrackbarPos('V_max', 'Skin Detection Controls', 255)

# 计算手指数量的函数
def count_fingers(contour, drawing):
    # 计算凸包
    hull = cv2.convexHull(contour, returnPoints=False)

    # 如果凸包点数太少,无法计算缺陷
    if len(hull) < 3:
        return 0

    # 计算凸包缺陷
    defects = cv2.convexityDefects(contour, hull)
    if defects is None:
        return 0

    # 计数有效的凸包缺陷(手指之间的缝隙)
    finger_count = 0

    for i in range(defects.shape[0]):
        s, e, f, d = defects[i, 0]
        start = tuple(contour[s][0])
        end = tuple(contour[e][0])
        far = tuple(contour[f][0])

        # 计算三角形三边长度
        a = math.sqrt((end[0] - start[0]) ** 2 + (end[1] - start[1]) ** 2)
        b = math.sqrt((far[0] - start[0]) ** 2 + (far[1] - start[1]) ** 2)
        c = math.sqrt((end[0] - far[0]) ** 2 + (end[1] - far[1]) ** 2)

        # 使用余弦定理计算角度
        angle = math.degrees(math.acos((b ** 2 + c ** 2 - a ** 2) / (2 * b * c)))

        # 如果角度小于90度,认为是手指之间的缝隙
        if angle <= 90:
            # 在图像上标记缺陷点
            cv2.circle(drawing, far, 5, [0, 0, 255], -1)
            finger_count += 1

    # 缺陷数加1等于手指数(因为缺陷是指手指之间的空隙)
    return finger_count + 1

# 主循环
while cap.isOpened():
    success, image = cap.read()
    if not success:
        print("无法获取摄像头画面")
        break

    # 水平翻转图像,使其更像镜子
    image = cv2.flip(image, 1)

    # 创建一个副本用于绘制
    drawing = image.copy()

    # 转换为HSV颜色空间
    hsv = cv2.cvtColor(image, cv2.COLOR_BGR2HSV)

    # 获取当前肤色阈值
    h_min = cv2.getTrackbarPos('H_min', 'Skin Detection Controls')
    h_max = cv2.getTrackbarPos('H_max', 'Skin Detection Controls')
    s_min = cv2.getTrackbarPos('S_min', 'Skin Detection Controls')
    s_max = cv2.getTrackbarPos('S_max', 'Skin Detection Controls')
    v_min = cv2.getTrackbarPos('V_min', 'Skin Detection Controls')
    v_max = cv2.getTrackbarPos('V_max', 'Skin Detection Controls')

    # 创建肤色掩码
    lower_skin = np.array([h_min, s_min, v_min])
    upper_skin = np.array([h_max, s_max, v_max])
    mask = cv2.inRange(hsv, lower_skin, upper_skin)

    # 进行形态学处理以去除噪声
    kernel = np.ones((5, 5), np.uint8)
    mask = cv2.erode(mask, kernel, iterations=1)
    mask = cv2.dilate(mask, kernel, iterations=2)
    mask = cv2.GaussianBlur(mask, (5, 5), 0)

    # 查找轮廓
    contours, _ = cv2.findContours(mask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

    # 找到最大的轮廓(假设是手部)
    if contours:
        max_contour = max(contours, key=cv2.contourArea)

        # 只处理足够大的轮廓
        if cv2.contourArea(max_contour) > 5000:
            # 绘制轮廓
            cv2.drawContours(drawing, [max_contour], 0, (0, 255, 0), 2)

            # 计算并显示手指数量
            finger_count = count_fingers(max_contour, drawing)

            # 限制手指数量在1-5之间
            finger_count = max(1, min(5, finger_count))

            # 在图像上显示数字
            cv2.putText(
                drawing,
                f"Fingers: {finger_count}",
                (50, 50),
                cv2.FONT_HERSHEY_SIMPLEX,
                1,
                (0, 255, 0),
                2,
                cv2.LINE_AA
            )

    # 显示肤色检测结果
    cv2.imshow('Skin Detection', mask)

    # 显示最终结果
    cv2.imshow('Hand Gesture Recognition', drawing)

    # 显示使用说明
    cv2.putText(
        drawing,
        "Adjust sliders to detect skin color properly",
        (10, drawing.shape[0] - 40),
        cv2.FONT_HERSHEY_SIMPLEX,
        0.5,
        (0, 0, 255),
        1,
        cv2.LINE_AA
    )

    cv2.putText(
        drawing,
        "Press 'q' to quit",
        (10, drawing.shape[0] - 10),
        cv2.FONT_HERSHEY_SIMPLEX,
        0.5,
        (0, 0, 255),
        1,
        cv2.LINE_AA
    )

    # 按'q'退出
    if cv2.waitKey(5) & 0xFF == ord('q'):
        break

# 释放资源
cap.release()
cv2.destroyAllWindows()
在 GitHub 上编辑此页
上次更新:
贡献者: wuziqing
Prev
实验02-颜色识别检测
Next
实验04-YOLOv5物体检测