在轨道交通快速发展的今天,安检作为保障公共安全的第一道防线面临着前所未有的挑战。传统X光安检机依赖人工判图,安检员每天需要处理上万张图像,长时间工作导致的视觉疲劳使得漏检率居高不下。我们团队开发的这套智能安检系统,通过计算机视觉与大语言模型的深度融合,实现了从"被动监控"到"主动预警"的质变。
系统最核心的创新点在于构建了"视觉检测-风险研判-决策支持"的完整闭环。当YOLO算法识别出可疑物品后,系统不仅会标注目标位置,还能通过DeepSeek大模型分析物品的危险等级、可能的藏匿手法,并自动生成符合《轨道交通安检工作规范》的处置建议。在实际测试中,对管制刀具的识别准确率达到98.7%,比人工判图效率提升3倍以上。
系统采用前后端分离的微服务架构,主要考虑以下设计原则:
前端交互层:
AI推理服务:
python复制class DetectionService:
def __init__(self):
self.model = torch.hub.load('ultralytics/yolov5',
'custom',
path='xray_best.pt')
def detect(self, img):
# 图像预处理
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
# 推理
results = self.model(img)
# 后处理
return results.pandas().xyxy[0].to_dict('records')
大模型集成:
code复制你是一名资深安检专家,请根据以下检测结果给出处置建议:
[检测结果]
物品类型:{object_class}
置信度:{confidence}
位置坐标:{x1},{y1},{x2},{y2}
要求:
1. 判断危险等级(高/中/低)
2. 列出3条标准处置流程
3. 给出对乘客的询问话术
由于安检X光图像具有以下特殊性质:
我们对YOLOv5进行了专项优化:
python复制# 基于安检物品长宽比重新设计anchor
anchors = [
[12,16, 19,36, 33,23], # P3/8
[30,61, 59,119, 116,90], # P4/16
[146,140, 110,256, 256,160] # P5/32
]
为实现实时处理(≥25FPS),采用以下技术方案:
mermaid复制graph LR
A[视频输入] --> B[帧提取队列]
B --> C{关键帧检测}
C -->|是| D[推理队列]
C -->|否| E[跳过]
D --> F[结果聚合]
F --> G[WebSocket推送]
实际部署中发现,在NVIDIA T4显卡上处理1080p视频时,通过以上优化可将延迟从380ms降低到120ms。
初期测试中发现,当乘客携带大量钥匙、硬币时,系统容易将金属聚集区误判为刀具。解决方案:
python复制kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(5,5))
eroded = cv2.erode(mask, kernel, iterations=2)
直接调用API时,生成处置建议平均需要2-3秒,影响用户体验。优化措施:
javascript复制// 前端处理流式响应
const eventSource = new EventSource('/llm-stream');
eventSource.onmessage = (e) => {
document.getElementById('advice').innerHTML += e.data;
};
| 配置项 | 边缘设备方案 | 服务器方案 |
|---|---|---|
| 推荐设备 | Jetson AGX Orin | Dell R750xa |
| 功耗 | 15-30W | 300-500W |
| 视频路数 | 1-2路 | 8-16路 |
| 典型延迟 | 150-200ms | 80-120ms |
| 适用场景 | 小型安检点 | 枢纽车站 |
建议采用AB测试方式逐步更新模型:
在实际运营中,这套系统已经成功部署在三个城市的试点车站。最令人惊喜的是AI助手功能——当检测到可疑液体时,系统不仅能识别容器类型,还会自动调取该航站楼的应急处置预案,包括最近的防爆罐位置、疏散路线图等。这种端到端的智能处理流程,代表着安检技术从"自动化"向"智能化"的跨越。