做全,是千视通从用户真实场景需求的出发点。
目前,千视通已经在包括智慧警务、智慧校园、智慧社区等多个场景有众多业务落地。
做好,是千视通在人工智能领域的基本要求。
其核心团队来自香港ASTRI、上海交大Person search 世界冠军团队、加拿大McMaster研究院。公司创始人、董事,先后获得视频智能分析领域国家科技进步二等奖,主导公安部视频检索GA/T 1154.3 GA/T 1154.5 GA/T1399等标准制订。
他们主打Face-ID和Re-ID融合应用,云+边+端软硬一体化部署,提供AIoT无感通行场景落地,目前已经服务于华为、平安、微软、Nokia等全国超过300家用户单位。
做细,是千视通为解决用户最后一公里痛点的立足点。
以智慧警务为例,千视通发布了视频警务实战应用2.0全域追踪解决方案。
千视通产品总监肖长清曾提到,“我们真的从汗水警务完全跨越到智慧警务了吗?”老人小孩走丢了难以快速找到;在监控中找到嫌疑目标,无法有效关联身份;前端摄像头普遍智能化程度不高。
总结来说,目前智慧城市的发展仍然面临着算法不全不准、算力成本居高不下、应用功能堆积不实用等问题。
围绕这些难处积极思考,千视通分别交出了结构化2.0、算硬结合和全域追踪等多种解决办法,在多维数据融合感知的时代,从场景应用的实战角度开发出更高效的AI产品。
该方案值得一提的是嵌有基于注意力架构模型的高精度Re-ID提取。
通常来说,人脸识别技术虽然准确度高,但是只能覆盖30%左右的监控点,基于成本因素,70%的监控为非卡口点位,无法拍摄到清晰人脸,只能拍摄到人体。
再譬如人体识别,最大的难点在于,行人是非刚体结构,当人在走动时,手和脚都在摆动,还往往伴随有其他动作,因此不同于车辆等刚体结构,任意角度都是同一个型态。l传统的算法无论是将目标对齐或者进行切分,都无法消除非刚体结构对算法的干扰。
千视通设计的主躯干网络不要求躯干位置的标注,模型能够从浅层视觉到高层语义的不同空间内自动捕捉关键区域,挖掘多尺度的注意力特征,自动实现行人肢体(如面部,上身及下身)的特征融合,对于姿态改变以及空间变化有着很好的鲁棒性,可以有效的完成行人搜索工作。
方案之上,千视通通过图谱关联关系,可突破传统的视频结构化检索与目标检索颜色强相关的瓶颈,为轨迹拟合提供数据基础;另外,基于多维数据融合,时空研判推演,实现跨镜、实时、快速、精准的全域追踪。
慢火才能熬好粥,精工才能出细活。
千视通针对各个场景的实际情况,为各类场景用户打造适配解决方案,让用户更轻易、便捷、智能地使用,但在每个简单易用的智能化应用的背后,都是技术的不简单。
而在这背后,是千视通近年来对大数据、云计算、智能识别、人工智能等技术创新的加大投入。