博客

新闻中心

博客

NeoCAM AI 相机助力停车场管理升级

在城市化进程不断加速的今天,停车场景早已不再是简单的“水泥盒子”。它变成了城市交通的毛细血管,也是检验智慧城市运营效率的试金石。无论是商业综合体的潮汐客流,还是老旧小区的夜间车位紧张,停车场管理者面临的挑战正变得越来越复杂:如何保证复杂环境下的车牌识别率?如何让普通的监控摄像头具备“思考”能力? 传统的停车管理方案大多依赖像素较低的普通相机,在面对雨雾、强逆光或夜间微光时,识别率往往大打折扣 。而在AI技术深度渗透的今天,行业的需求已经发生了根本性的转变:我们需要的不仅是一双能“看清”的眼睛,更是一个能在边缘侧“看懂”并实时反应的大脑。 1. 停车场痛点  如果你曾在小区的昏暗地库入口遇到过闸杆迟迟不抬,或者在暴雨天因车牌识别错误而倒车,你就亲身体验了传统停车系统的“盲区”。 根据最新的行业观察,当前停车场管理存在三大核心痛点: 恶劣环境下的“失明”:雨雾天气、夜间极暗环境、强光逆光都会导致传统相机成像模糊、信噪比下降。为了补光,很多停车场不得不安装大功率爆闪灯,这不仅造成了光污染,也对车主驾驶造成了一定的安全隐患。 识别角度的“局限”:传统相机视角有限,在弯道或短纵深车道,容易出现漏拍。特别是在极限跟车(如40cm车距)场景下,很难将车头牌与车尾牌正确关联,甚至无法捕捉挂车等特殊车型,给“套牌逃费”和“跟车逃费”留下了可乘之机 。 数据价值的“单一”:大多数系统只能输出“车牌号”和“进出时间”,无法对场内的事件进行实时分析,例如车辆违停、通道拥堵、剐蹭事故追溯,甚至无法为车主提供空余车位的精准导航 。 2. 边缘计算与算法自定义 要破解这些痛点,单纯提升镜头、传感器等硬件成像能力,已经走到了物理瓶颈期。真正的破局点在于:当物理成像到达极限后,让“算法”来接管。 思林杰的NeoCAM AI相机的核心逻辑正在于此:当物理成像遭遇环境极限时,我们选择用算法来破局。因此,我们不仅提供稳定的图像采集能力,更通过内置的强劲算力与开放生态,让相机具备“在传统难以看清的场景下,依靠算法‘算’得清”的能力——无论是雨雾造成的对比度下降,还是逆光导致的局部过暗,都能通过实时图像增强算法进行修复与还原。这正是解决恶劣环境下“失明”问题的关键所在。 强劲的 edge 算力:让算法“跑得动” 再好的算法,也需要足够的算力来承载。NeoCAM内置3.0 TOPS的AI算力,完全能够支撑车牌识别、人脸检测、车辆属性分析等复杂模型的实时推理,确保从图像增强到结构化识别的全流程都在相机端完成,无需依赖云端。 可靠的硬件平台:让算法稳定运行 NeoCAM 基于 Rockchip RV1126B 四核 Cortex-A53 处理器,内置 3.0 Tops NPU,高效承载车牌识别、图像增强等 AI 模型的实时推理。其新一代硬件 ISP 融合 AI-ISP 技术,支持 HDR、3DNR、去雾等功能,确保雨雾、逆光、极暗环境下仍能输出高质量图像。硬件采用 38 板标准结构,支持 POE 供电,工作温度 -10℃ 至 50℃,网口 4KV 雷击防护,并内置看门狗与固件加密,保障 7×24 小时稳定运行。 灵活的SDK:让算法按需部署:这是NeoCAM区别于固定功能的成品相机的核心优势。许多停车场方案商拥有自研的、针对特定地区车牌(如新能源绿牌、港澳双牌)的优化算法,但往往被硬件绑定所困扰。NeoCAM 提供完整的SDK和开发指导,允许客户将自己的算法直接移植到相机中。这意味着,无论是针对停车场车辆属性分析(车牌、车型颜色等)的定制化需求,还是特定厂区的违章行为分析,开发者都能在NeoCAM的硬件平台上实现算法的快速部署与迭代。 3. 未来停车场的三大演进方向 结合行业趋势,未来的智慧停车将呈现以下三个方向: 端-边-云协同治理:前端相机负责“采”和“认”,边缘侧主机负责多源数据融合(如雷达与视觉融合),云端负责全局调度和大数据分析,如预测周末的车流高峰时段,提前调配资源 。 从“车”到“场”的全域智能:AI的监控范围将不再局限于出入口闸杆。车辆逆行、消防通道占用、危化品车辆违停、甚至停车场内的烟火预警,都将由同一套视觉系统接管,实现从“人防”到“智防”的转变 。 平台化与开放化:硬件趋向标准化,软件趋向个性化。像NeoCAM这样的平台型产品,将成为AI算法公司的“沃土”。硬件厂商专注于做好供电、散热、图像采集和基础算力,而百花齐放的算法应用则交给更懂场景的专业开发者 。   4. 结语 停车场虽小,却是窥见未来城市智慧密度的一个窗口。在这个窗口里,我们看到的不仅是技术的迭代,更是一种协作模式的转变。 NeoCAM AI相机正是为了迎接这一转变而设计。它不仅以强大的RV1126B核心和精细的画质处理能力,为客户提供可靠的算法运行载体;更通过开放的平台与完善的开发支持,赋能开发者将自有算法快速落地,“看懂”并“解决”更深层次的业务痛点。 如果你正在寻找一款能真正承载你自有算法的硬件平台,或者希望为你的停车场解决方案寻找一个稳定、高性能的算力载体,欢迎联系我们(官方邮件:info@smartgaint.com)获取《NeoCAM AI相机 开发指南》与硬件规格书。


三通道七位半直流电压表-电芯OCV测试及分选高性价比方案

一、锂电池生产中的ocv1,ocv2,ocv3,ocv4分别是什么目的 在锂电池的生产流程中,每个阶段的电压参数检测都关乎到产品合格率及安全性能,以下将剖析生产过程各环节中OCⅤ的应用。 卷芯组装成电池后首次开路电压测量记为 OCV1。需要核实未注入电解液前的极片状态是否造成自放电。电压突降过大可能存在内部颗粒穿透隔膜的硬短路现象。实际案例操作中发现某批次测量值普遍低于正常电压 0.18V左右,追踪原因系阳极涂布过程中粉尘失控造成隔膜孔洞。 完成电芯注入电解液与封口工序需二次测试记为 OCV2。正常经浸润 24小时电池达到电解液渗透平衡,电压会升到稳定区间。生产线案例表明电压持续低于上限5%的单元格经拆解检测发现极耳焊接偏移导致有效接触面缺失,此类问题必须剔除以防成品率损失。特别需要控制恒湿恒湿环境中两小时静置后的测定时间误差。 关键工艺化成过程中的 OCV3 监控有独特意义。SEI 膜形成后期电芯将经历12小时充放电脉冲处理。在第五工站的案例里有电池经历6个充放电周期后维持电压飘忽 1mⅤ范围内持续波动,检测发现导电剂浆料搅拌温度偏差引起的膜电阻不均。这里检测精度要求高达±0.01V的电压计配校。 终检端的 OCV4 侧重自放电量化分析,常规是电池活化后放在23℃±0.5℃的环境仓24小时记录差值。厂区实测数据里剔除数值变化超过8mⅤ的批次,追溯发现集流体边缘毛刺未被激光处理完整导致的隐蔽性析锂短路。经验显示这工序可为仓库储放三个月后的循环效率提供预判基准。 二、OCV测试参数 正负极电位测试,主要观察正负极绝缘不良情况。     外装电位测试 主要测量电池负极与外壳的负壳压、电池正极与外壳正壳压,一般观测到的电压值只要接近于 0 V 那么电池就被认为是良品。 三、市场主要检测手段 当前,制造商/集成商通常使用1台IR设备+3台DMM/DCVM完成软包电池上述检测,这种检测方法搭建难度偏大,成本较高,由于采用的设备较多,对产线面积占用也比较大,仪表布局困难。 四、思林杰电芯OCV测试解决方案 3通道电压信号同步检测 采用1台DCV7503替代3台DMM/DCVM同时完成3路电压信号同步检测,隔离保证OCV、正壳压和负壳压测量相互独立,互不影响;同步既能大幅缩短测试时间,提高产线节拍,又能同一时间点采集的所有参数,更能真实反映电芯在该时刻的状态。 高精度直流电压测试 配置20V量程的七位半直流电压采集,每通道直流电压精度为18ppm*读数±20μV,同步采集环境温度,利用温度数据对电压测量值进行补偿校准,随着环境温度升高或降低,保证测量微弱电压的精确度。高精度测量保证电芯精准分选,将性能高度一致的电芯编入同一模组,保证一致性​,提高模组性能及寿命。   直流电压高速测量和测量值的存储 DCV7503最快测量速度为0.1ms(0.005NPLC)毫秒级采样,保持1分钟连续记录,有利于捕获全量的瞬时直流电压波动。 配置程控指令(SCPI) 在国家工业4.0的推动下,生产企业全面进入了智能制造时代,DCV7503配置了USB+LAN+RS232C三合一接口,提供了完整的SCPI指令集,用户可以配置自动夹具实现自动化测试。    


RV1126B AI 相机端云协同方案

在 AI 视觉项目落地的过程中,“算法跑在相机端还是服务器端?” 始终是开发者绕不开的问题。传统思路里这是道二选一的选择题,端侧低延迟但算力有限,云端算力强却依赖网络、成本高。而瑞芯微 RV1126B AI 相机给出了更优解 ——端云协同,让计算在最合适的位置发生,也成为了从 IPC 网络摄像机到车载场景的通用视觉解决方案。 当下边缘计算市场爆发式增长,到 2025 年全球边缘计算市场规模将突破 300 亿美元,年复合增长率达 35%,理解端云协同架构,不仅是 AI 视觉项目的技术选型关键,更是产品定义的基础。 一、端云协同的四大核心优势 相比纯端侧或纯云端的计算模式,端云协同将两者的优势结合,精准解决了延迟、带宽、可靠性、隐私四大核心问题,这也是其成为 AI 视觉主流方案的关键: 低延迟,适配实时场景:传统云计算数据往返延迟超 100ms,无法满足人脸闸机等实时需求;端云协同将实时任务留在端侧,RV1126B 的 3TOPS 算力可本地完成人脸 / 活体检测,端到端延迟控制在 50ms 以内。 省带宽,降低传输成本:单路 1080p 摄像头单日产生约 80GB 原始视频,全量上传成本极高;端云协同采用「前端结构化 + 后端分析」模式,仅上传结构化信息,工业场景实测带宽消耗降低 90% 以上。 高可靠,断网仍能工作:设备内置存储和算力,脱离云端网络时可独立运行,避免因网络故障导致系统瘫痪。 保隐私,满足合规要求:医疗影像、生产数据等敏感信息受法规限制不得出境,端侧本地处理可天然满足合规,仅上传脱敏后的分析结果。 二、端云协同的三种核心模式介绍 端云协同并非单一架构,而是根据业务场景分为三种模式,从基础的任务分工到深度的模型迭代,覆盖不同层级的应用需求: 任务级协同(最常用):端侧负责实时推理,云侧负责非实时分析。例如智慧园区中,RV1126B 相机实时检测人脸和异常事件,本地触发报警的同时上传结构化数据,云服务器汇聚数据完成跨镜轨迹分析。 模型级协同(新趋势):端侧运行轻量化模型做基础识别,云侧运行大模型做深度分析。复杂场景下将端侧数据上传云端,由大模型完成二次分析,兼顾实时性和分析深度。 训练 - 推理协同(形成数据闭环):端侧完成推理并产生数据,数据回传云端用于新模型训练,再通过 OTA 将新模型下发至端侧,让模型迭代周期从月级缩短到周级。 三、RV1126B芯片核心能力 RV1126B 是瑞芯微面向边缘视觉计算的主力芯片,其异构计算架构让端侧高效完成实时计算成为可能,各模块各司其职、互不干扰,同时硬件规格兼顾算力、功耗、编码能力,适配边缘场景需求。 核心异构计算架构 CPU:负责控制逻辑,四核主频 1.5GHz NPU:专攻 AI 推理,集成 3.0 TOPS 算力 ISP:处理图像质量,12+8M ISP 2.0 支持 3 帧 HDR VPU:搞定视频编码,兼顾高分辨率和高帧率 关键硬件规格 编码能力:4K H.264/H.265@45fps + 1080p 子码流 功耗表现:典型功耗 3-5W,待机最低 1mW 算力水平:3TOPS 综合算力,满足端侧轻量级 AI 推理需求 四、端云清晰分工 端云协同的核心是「分工」,RV1126B方案对端侧和云侧的职责做了明确划分,避免算力浪费和资源冗余,实现效率最大化。 端侧核心职责 实时视频处理:4 路 1080P@45fps 并行硬件编码,不占用 CPU 资源 轻量级 AI 推理:人脸检测约 23ms、活体检测约 15ms,YOLOv3 在 NPU 上达 25 FPS 结构化数据输出:仅上传事件、特征等结构化信息,带宽成本降低 70% 以上 云侧核心职责 跨摄像头轨迹追踪:汇聚多端检测结果,关联还原目标完整运动轨迹 大模型深度分析:场景理解、复杂行为判断等任务由云侧 GPU 集群完成 数据沉淀与挖掘:基于全量数据生成客流热力图、行为模式分析等价值结果 五、灵活部署模式 RV1126B...


面向物理世界的 AI 数据采集

AI 数据采集-从分布式模块化的数据采集到工程化的智能系统   一、AI 的演进脉络:从模型驱动走向数据驱动的新阶段   从产业视角看,人工智能的发展大致经历了从规则系统、机器学习、深度学习到大模型的演进过程。前几个阶段,AI 的核心驱动力主要来自算法创新与算力提升,模型能力的快速增强推动了感知、识别与生成等应用的规模化落地。 随着模型结构逐渐收敛、算力投入边际效益下降,AI 正在进入新的发展阶段:产业关注点开始从“模型与算力”,转向“数据获取、数据质量以及工程化能力”。尤其是在工业、能源、科研等真实世界场景中,AI 面对的是连续变化、噪声复杂的物理过程,而非标准化的数字内容。 在这些场景下,AI 的关键挑战不再只是算法本身,而是如何长期、稳定地从物理世界获取高质量数据,并将其转化为可用于训练和推理的输入。因此,AI 数据采集正逐步从支撑角色转变为智能系统中的基础设施,成为连接真实世界与 AI 系统的关键一环。   二、AI 数据采集的全景视角:多源数据体系与关键类型 从 AI 系统的整体视角看,数据采集并非单一形式,而是由多种数据类型共同构成的多源体系。不同类型的数据来源于不同层级的系统,对应着不同的采集方式、工程难度和应用价值,共同支撑 AI 模型训练、推理与系统运行。 总体而言,AI 数据采集涵盖多种数据形态。其中,最直接连接真实世界的是物理数据采集与视觉数据采集,它们构成了 AI 感知和理解现实环境的核心入口;与此同时,AI 系统在运行过程中还会持续产生和依赖行为与事件数据、数字系统与通信数据,并在模型训练和验证阶段引入仿真与合成数据作为重要补充。这些数据类型在不同阶段、不同层级协同作用,决定了 AI 系统的可靠性与工程可落地性。 在各类数据中,物理数据采集直接来源于真实物理世界,通过传感器与电子系统获取连续变化的物理量。按信号形态和工程特性,这类数据主要包括:电与电子信号,如电压、电流,以及高速数字信号和射频信号;力学相关信号,如压力、应力、加速度、速度和振动;热学与环境信号,如温度、湿度、气压、风向、风速和云高;流体与过程信号,如水流及相关流量参数;以及光学与光信号,如光强、光谱等。上述信号在幅值、频率、动态范围和噪声特性上差异显著,通常具有连续性强、环境依赖性高等特点,是工业与科研 AI 应用中最基础、也最具工程挑战性的数据来源。   与物理数据相对应,视觉数据采集主要以图像和视频为代表,来源于各类成像系统,用于描述环境、目标和行为状态。随着成像技术的发展,视觉数据也逐渐扩展到多光谱、红外和深度等形式,在感知、识别、定位和决策类 AI 应用中发挥着重要作用。 此外,AI 系统在实际运行中还会持续采集行为与事件数据,如设备状态变化、操作记录和系统日志,这类数据通常以离散形式存在,并高度依赖时间序列与上下文关系;同时,来自各类数字接口、总线和通信协议的数字系统与通信数据,在工业自动化和复杂系统中同样占据重要位置。另一方面,仿真与合成数据则常用于模型训练早期、极端场景覆盖和算法验证,与真实数据形成互补。 综合来看,AI 数据采集是一个多类型、多层级协同的系统工程。其中,物理数据与视觉数据构成了 AI 连接真实世界的核心基础,其余数据类型则在系统运行、分析与优化中发挥重要补充作用。正是在这样的数据全景之下,围绕真实世界信号的高质量采集与工程化处理,逐渐成为 AI 系统能否稳定落地的关键前提。   三、面向 AI 的物理数据采集:工程挑战与系统架构 在真实工程环境中,物理数据采集的难点并不在于“能否采到信号”,而在于能否长期、稳定地获取高质量数据,并使其适配 AI 系统的需求。连续运行、复杂工况和系统规模扩展,使数据采集成为一项典型的系统工程问题。 首先,信号精度与可靠性是物理数据采集的基础。微弱信号、高精度测量以及复杂环境运行,依赖于优秀的信号采集前端设计,包括信号调理、噪声控制和长期稳定性保障,否则数据质量将直接限制 AI 系统效果。 其次,多路、多物理量信号的同时采集已成为常态,这要求采集系统具备清晰的系统架构和较强的并行处理能力,能够在多通道同时工作的情况下保持数据一致性与完整性。为此,系统通常引入基于 FPGA 模块的并行处理架构,在数据产生的同时完成通道调度、预处理与数据整形,为后续处理提供稳定数据流。 在涉及高速数字信号和射频信号采集的场景中,系统不仅需要高精度、高速的模数转换能力,还必须具备持续的高吞吐量数据处理能力,以保证在长时间运行中稳定输出数据。 在数据进入 AI 系统之前,部分应用还需要在边缘侧完成初步处理。通过引入集成独立 NPU 的 SoC 模块,采集系统可以在本地端侧运行 AI 算法,对数据进行预处理、特征提取和加速计算,仅将高价值数据或结果上传,从而在实时性、带宽和系统负载之间取得平衡。 由于不同信号在幅值、频率和动态特性上差异显著,物理数据采集通常需要搭配不同类型的数据采集模块,以覆盖从高精度模拟信号到高速与射频信号的多样化需求。 在工业与科研现场,测点分散、运行周期长,使得模块化、分布式并支持同步采集的系统架构成为必然选择。这种架构既有利于系统扩展,也为多源数据在时间维度上的一致性提供了保障。 总体来看,面向 AI 的物理数据采集是一项涵盖前端设计、并行处理、边缘计算与系统部署的综合工程,其架构合理性直接决定了 AI 系统在真实世界中的可靠性与可持续运行能力。   四、总结:从数据基础设施出发,迈向更完整的 AI 感知体系   随着 AI 从算法驱动走向工程化落地,数据正在成为决定系统能力上限的关键因素。本文从 AI 发展的阶段变化出发,系统梳理了 AI 数据采集的主要类型,并重点讨论了面向真实世界应用的物理数据采集问题。可以看到,物理数据采集并非简单的数据输入环节,而是一项涵盖信号前端、系统架构、并行处理与部署方式的综合工程,其稳定性与可扩展性直接影响 AI 系统在工业与科研场景中的长期运行能力。   在真实应用中,微弱信号与高速信号并存、多物理量同时采集、长期连续运行等需求,使得模块化、分布式并具备同步能力的数据采集系统成为必然选择。通过引入 FPGA 并行处理架构和集成独立 NPU 的 SoC 模块,数据不仅能够被高质量地采集,还可以在边缘侧完成预处理与算法加速,从而在实时性、带宽和系统负载之间取得更优平衡。这一层能力,正在逐步演变为 AI 系统不可或缺的数据基础设施。 然而,真实世界的感知并不止于物理量本身。除了对状态与过程的精确测量,AI 还需要对环境、目标和行为进行更直观的理解。在这一维度上,视觉数据采集构成了 AI 感知体系的另一重要入口,与物理数据形成互补。如何在复杂场景中获取高质量的视觉数据,并与物理数据协同使用,将成为下一阶段 AI 系统演进的关键课题。   在后续内容中,我们将进一步探讨 AI 视觉数据采集的技术路径与工程实践,继续从数据源头出发,理解 AI 系统如何更全面地连接真实世界。   您还可能喜欢: 1.高速数据采集模块 -...


联系我们
在线询盘