2024城市智能中枢用户指南_第1页
2024城市智能中枢用户指南_第2页
2024城市智能中枢用户指南_第3页
2024城市智能中枢用户指南_第4页
2024城市智能中枢用户指南_第5页
已阅读5页,还剩262页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

文档版 发布日 04-30目录目录文档版本01文档版本01(2024-04-目录用户指 城市智能中枢简 用户使用流 账号管 账号管 角色管 资源管 资源管理简 创建专属资源 创建边缘资源 L2-场景模型管 L2-场景模型简 城市视频感知模型约 通用 入侵检 算法约 正确场景应用示 人流量统 算法约 正确场景应用示 关键岗位在岗监 算法约 正确场景应用示 工服工帽穿戴检 算法约 正确应用场景示 视频车辆检 算法约 正确应用场景示 异常停车检 算法约 正确场景应用示 非机动车违停检 算法约 正确场景应用示 消防通道占用检 算法约 正确场景应用示 遗留物检 算法约 正确应用场景示 未戴口罩识 算法约 正确应用场景示 城市治理 高密度人群统 算法约 正确应用场景示 占道经营检 算法约 正确应用场景示 违规广告牌检 算法约 正确场景应用示 垃圾检 算法约 正确场景应用示 共享单车乱摆事件检 算法约 正确场景应用示 垃圾桶满溢检 算法约 正确应用场景示 垃圾桶未合盖检 算法约 正确场景应用示 应急管理 打架斗殴行为检 算法约 正确应用场景示 个体事件行为(吸烟、打电话)识 算法约 正确应用场景示 火焰、烟雾检 算法约 正确应用场景示 个体动作(翻爬、摔倒、挥手、弯腰)识 算法约 正确应用场景示 高点摄像机人数统 算法约 正确应用场景示 水治理 河道标定水尺识 算法约 正确应用场景案 漂浮物识 算法约 正确应用场景案 排口流量有无识 算法约 正确应用场景案 内涝水尺识 算法约 正确应用场景案 自研算法管 创建算法版 发布算 部署算法服 使用与管理自研算 分配自研算 调用自研算 管理自研算法服 三方算法管 三方算法使用流程简 上传镜像文 新建三方算 发布算 部署算法服 使用与管理三方算 分配三方算 调用三方算 管理三方算法服 调用政务证照/政务语音/自然语言分析算 调用接 查看调用次 算法权限管 为用户开通资源使用权 数据管 准备训练数 创建数据 管理数据集版 数据规范说 算法训练管 创建应 创建训练任 启动训练任 部署使用算 创建视觉感知分析作 算法简 使用流 接入视频数 新增视频 视频源分 注册视频平 准备结果输出通 创建视频分析作 查看作业状 获取作业结 查看告警事 事件列表说 订阅事 配置算法模 通用 城市治理 应急管理 水治理 审批管 附 通过互联网连接 通过专线或VPN连接 三方算法接入规 概 版本约 本文目标和范 三方算法管理业务逻 第三方算法接入流 三方算法部署简 三方算法镜像规格约 算法镜像规格约 镜像启动用户ID约 算法镜像驱动版本约 三方算法封装接口规 封装接口方 深度集成的接口规 作业管理 创建作业接 删除作业接 查看作业详情接 实例及作业状态上报管理 状态上报接口 上报接口签名规 上报实例状态接 上报作业状态接 更新开发者凭证接 简易集成的接口规 同步推理的请求示 视频类算法异步推理的请求示 接口开发过程日志打印建 三方算法服务运行状态参数说 服务运行形 环境变量 容器内密 异步推理类算法输出告警数据格 公共结 输出结果样 上传算法镜像文 提供算法镜像的相关描述信 算法发布和部署流程(由城市智能中枢运营管理员完成 常见问 创建视频分析作业时,如何生成检测区域字符 使用HTML5WebsocketAPI发送websocket请求如何携带 如何查看批量视频分析作业部分失败的原 事件列表中无法查看告警画 11文档版本01文档版本01(2024-04-随着政府数字化转型的加快,A在数字政府建设中的应用也越来越多。但传统AI开发门槛高、应用场景复杂多样、对场景标注数据依赖等问题成为A规模化落地的挑战。城市智能中枢以大模型为载体,提供面向城市、政务的场景化应用,通过场景模型、大模型、P临的困境,推动数字政府高质量发展,统筹推进人工智能创新应用,繁荣生态,赋能数字政府实现智慧化转型。L2-L2-场景模型、CV1-1L2-场景模型、CV1-1L2-场景模型、CV

图1-2表1-2数据总览功能(管理者、开发者、高级开发者类别,统计算法数量、以及数“已删除”“异常”、“已停CPU表1-3数据总览功能(使用者类别,统计算法数量、以及数表1-4

图1-3VDC管理图1-4账号管理”,进入“账号管理”页面,并图1-5关联机构账号前,需要创建用户图1-6注意注意图1-71-8git账号管理”页面平台用户信息。图1-9用户列表1-101-11表1-5数据总览功能(管理者、开发者、高级开发者类别,统计算法数量、以及数“已删除”“异常”、“已停CPU表1-6数据总览功能(使用者类别,统计算法数量、以及数资源管理”,进入“专属资源池”页面。图1-12专属资源池表1-7可用后,Maste节点可以是个,个Master节点会按高可用部署,确保集群的可靠性。1-13

1-14表1-8填写用户的domianID1-151-16UbuntuLTS(XenialXerus)、UbuntuLTS(BionicBeaver)、CentOS、EulerOSaarch64(arm64)>=1>=DockerCgroupDriver必须设置为cgroupfsMQTTbroker如果边缘节点使用昇腾AIDocker安装完成后,可以执行dockerv命令检查Docker是否安装正常,如果回##docker-Dockerversion19.03.12,build1-17执行如下命令编辑/etc/docker/daemon.jsonvi{"insecure-registries": systemctlrestartfirewall-cmd--state回显中,notrunning表示关闭,runningfirewall-cmd--add-port=8883/tcp--permanentsystemctlrestartfirewalldfirewall-cmd--add-port=8883/tcp--permanentsystemctlrestartfirewalldsystemctlstopfirewalld1-18

边缘节点”,单击页面右上角的“注册边缘节1-10是否启用边缘节点内置的MQTTbroker的监听地址,用于发送edge-monitor等)根据页面提示,单击“下载边缘节点名称.tar.gz1-19

说明执行如下命令,解压缩安装工具到“/opt执行如下命令,解压缩配置文件到“opt/IEF/Certsudomkdir-p/opt/IEF/Cert;sudotar-zxvf边缘节点名称.tar.gz-C/opt/IEF/cd/opt/edge-installer;sudo./installer-选择左侧导航栏的“边缘资源>1-20说明纳管后请勿删除边缘节点的“/opt在左侧导航栏中选择“运营管理中心资源管理”。在“边缘部署专用边缘资1-111-12音/API1-13(10-摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-14对于入侵车辆,需保证车辆有至少1/2摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-15黄色工帽(半包型头盔红色工帽(半包型头盔白色工帽(半包型头盔蓝色工帽(半包型头盔1-16红/

错误示例(人物目标尺寸不满足约束

错误示例(画面局部曝光严重错误示例(光照不足导致工服工帽视觉信息缺失错误示例(因逆光导致工服工帽特征难以分辨

错误示例(工人被严重遮挡错误示例(工帽被遮挡严重错误示例(工服被严重遮挡

错误示例(画面或行人部分失真

0和D和Q0和D依赖于左边的线条弧度区分,0和Q依赖于是否有“、”来区分,片)覆盖&摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-19

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-20

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-211-22

于80*80,消防通道占用车辆目标宽高不小于140*140。小于120*120,消防通道占用车辆目标宽高不小于200*200。于160*160,消防通道占用车辆目标宽高不小于260*260。于240*240,消防通道占用车辆目标宽高不小于400*400。除此之外,本算法也支持车辆车牌识别,应用场景需要满足视频车辆检测摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于100lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-24N95

错误示例(口罩目标尺寸小于约束条件错误样例(目标距离摄像头不满足约束条件1-251-26

样例1行贩卖,然而"店门口堆放杂物"这一特征有时候也不一定是出店经营事件,但因为它们的视觉特征是很相似的,因此算法无法区分,这可能会有时带来误差,如下图所示。样例然而"店门口有人蹲坐"这一特征有时候也不一定是出店经营事件,但因为它们的视觉特征是很相似的,因此算法无法区分,这可能会有时带来误差,如下图所正确样例(黄色边框

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-27

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-28

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)(美团、摩拜、小蓝、青桔),1-29

错误样例(非共享单车摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于100lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-30

错误示例(目标不满足尺寸约束错误示例(光线不足,人眼难以判断桶口状态错误示例(垃圾桶被严重遮挡摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-31

摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-32

个体事件行为(吸烟、打电话)1-33

错误样例(目标尺寸小于约束条件正确样例(良好光照,烟头或手机清晰可辨错误样例1(目标被遮挡,无法辨认出烟头或手机错误样例2(目标区域模糊,无法辨认出烟头或手机错误样例3(目标区域遭遇强光或反光,无法辨认出烟头或手机1-34

目标的面积占比不大于画面的90%个体动作(翻爬、摔倒、挥手、弯腰)摄像头安装高度3~5夜间或室内昏暗环境,需要有路灯级别光照,光照强度不低于30lux点位需具备安装条件(如可架设抱杆,有墙体可供安装)1-35

错误示例(人物目标尺寸小于约束条件

错误示例(人体全身未处于画面有效区域

30lux(可以通过测光仪在现场测量得到)

错误样例(红色框内的目标尺寸不满足约束条件50%错误样例(红色框内的目标模糊,遮挡超过

目标的面积占比不大于画面的90%光照约束:光照强度大于30lux

被拍摄物体的最小像素:排口直径大于图像高度的1/5(1080P200个像素),

外,需要添加m属性,即算法运行的平台和环境信息。属性参数可参考下方代码中加粗部分。填写示例详见作业启动参数填写样例。图1-21platform<paramname=\"target_roi\"titleCn=\"车辆检测区域\"titleEn=\"target_roi\"required=\"true\"\"String\"<param<paramname=\"license_plate\"titleCn=\"车牌信息titleEn=\"license_info\"<paramname=\"local_city\"titleCn=\"城市缩写\"titleEn=\"city\"required=\"true\"\"<paramname=\"local_province\"titleCn=\"省份信息\"titleEn=\"province\"required=\"true\"type=\"String\"default=\"京\"></param><paramname=\"output_image_sw\"titleCn=\"图片输出开关titleEn=\"output_image_sw\"required=\"true\"type=\"int\"default=\"1\"min=\"0\"max=\"1\"step=\"1\"></param><paramname=\"image_compression_ratio\"titleCn=\"图片压缩比\"\"image_compression_ratio\"required=\"false\"type=\"int\"default=\"100\"min=\"20\"max=\"100\"<paramname=\"output_vehicle_type\"titleCn=\"输出车型信息titleEn=\"output_vehicle_type\"required=\"false\"type=\"String\"></param><paramname=\"platform\"titleCn=\"platform\"titleEn=\"platform\"required=\"true\"<paramname=\"project_id\"titleCn=\"project_id\"titleEn=\"project_id\"required=\"true\"type=\"String\"default=\"project_id\"></param><paramname=\"agency_name\"titleCn=\"agency_name\"titleEn=\"agency_name\"required=\"true\"type=\"String\"default=\"agency_name\"></param><paramname=\"domain_id\"titleCn=\"domain_id\"titleEn=\"domain_id\"\"type=\"String\"<paramname=\"domain_name\"titleCn=\"domain_name\"titleEn=\"domain_name\"required=\"true\"type=\"String\"default=\"domain_name\"></param><paramname=\"task_id\"titleCn=\"task_id\"titleEn=\"task_id\"required=\"true\"\"String\"

本章节以“L2-通用类”算法为例,介绍如何创建算法版本,其他城市治理L2-场景模型”。在“L2-场景模型”页1-221-231-36同步推理:单次推理,可同步返回结果(健康检查部分算法在创建算法版本时可选添加“健康检查url”法请参见创建镜像规范。部分算法在创建算法版本时可选添加“apis定义”参数。apis定义提供了算法对外Restfullapi数据定义,定义了如何请求某个功能或服务,以及如何获取响应数据。例如,T"}]。详细说明请参见创建镜像规范。镜像启动命令,例如:sh/opt/start.sh。可联系服务技算法输出数据的形式,选择“Webhook1-24

"apis":"apis":"url":"method":"method":"post","request":{"data":{"type":"object","properties":{"type":"response":"data":{"type":"object","properties":{"detection_classes":{"type":"array","items":"type":"detection_boxes":{"type":"array","items":"type":"array","minItems":"maxItems":"items":"type":"detection_scores":{"type":"array","items":"type":1-37符合标准的tps协议h求。1-38request请求体以jsonschema描述。参数说明1-39response响应体以jsonschema描述。参数说明curl-XGET\ 其中,<deployConfig>其中,<config>platform属性(填写时,除第一个platform外,其余需要设置为子配置项<param<paramname=\"platform\"titleCn=\"platform\"titleEn=\"platform\"required=\"true\"<paramname=\"project_id\"titleCn=\"project_id\"titleEn=\"project_id\"required=\"true\"type=\"String\"default=\"project_id\"></param><paramname=\"agency_name\"titleCn=\"agency_name\"titleEn=\"agency_name\"required=\"true\"type=\"String\"default=\"agency_name\"></param><paramname=\"domain_id\"titleCn=\"domain_id\"titleEn=\"domain_id\"\"type=\"String\"<paramname=\"domain_name\"titleCn=\"domain_name\"titleEn=\"domain_name\"required=\"true\"type=\"String\"default=\"domain_name\"></param><paramname=\"task_id\"titleCn=\"task_id\"titleEn=\"task_id\"required=\"true\"\"String\"L2-场景模型”。在“L2-场景模型”页1-251-40发布好的算法将显示在“推理和模型管理>1-26说明发布好的算法将显示在“推理和模型管理算法服务”列表中,单击操作列的“去部1-271-41L2-场景模型”。选择所需要的算法类1-28算法仓”页面查调用算法服务算法服务”页面查看已经部署算法服务”。图1-29算法服务1-30APIAPI传参方式和示例可参见《AP文档》。如果对API的传参方式不熟悉,可以先通过平台提供的创建视觉感知分析作业功能,先创建一个基于自研算法(城市视频感知算法)的分析作业,在作业信息填写完成后,按键盘具”模式,再单击“立即创建”按钮,在开发者模式的“tor”中找到“task”接口,在ayload中获取API的请求bod,结合《API文档》完成调用。1-31API用户可以在“推理和模型管理>算法服务”页面查看已分配的自研算法,并可对算法1-321-42说明图1-33进入容器镜像服务控制台说明dockertag[镜像名称1:版本名称1][镜像仓库地址]/[组织名称]/[镜像名称2:版本[镜像仓库地址]:可在SWR[组织名称][镜像名称2:版本名称2]dockerpush[镜像仓库地址]/[组织名称]/[镜像名称2:版本名称fe4c16cbf7a4:Pushed

待上传镜像需要为tar或tar.gz图1-34进入容器镜像服务控制台L2-场景模型”。在“三方算法”页签,1-351-43同步推理:单次推理,可同步返回结果(健康检查部分算法在创建算法版本时可选添加“健康检查url”法请参见创建镜像规范。部分算法在创建算法版本时可选添加“apis定义”参数。apis定义提供了算法对外Restfullapi数据定义,定义了如何请求某个功能或服务,以及如何获取响应数据。例如,T"}]。详细说明请参见创建镜像规范。镜像启动命令,例如:sh/opt/start.sh。可联系服务技算法输出数据的形式,选择“Webhook1-36在左侧导航栏中选择“推理和模型管理L2-场景模型”。在“三方算法”页签,1-371-441-38发布好的算法将显示在“推理和模型管理>算法服务”列表中。看到已发布的算1-45L2-场景模型”。单击操作列“用户权限”,算法仓”页面查看算1-39调用三方算法服务算法服务”页面查看已经算法服务”。图1-40算法服务1-41API1-42API用户可以在“推理和模型管理>算法服务”页面查看已分配的三方算法,并可对算法1-43调用政务证照/政务语音/1-44政务证照识别版本状态(发布部署前1-45政务证照识别版本状态(发布部署后

ProgrammingInterface,应用程序编程接口)的方式提供能力。政务语音分析实时语1-46L2-场景模型”。单击操作列“用户权限”,算法仓”页面查看算1-47CVCV1-461-47ModelArtsimageNet1.0ModelArtsimageclassification1.0ModelArtsimagesegmentation1.0物体检测-YOLO1-48图1-49obj_train_data、obj_valid_data图1-50obj.data文件示例label1#label1的index0label2label1#label1的index0label2#label2的index1图1-51train.txt图1-52valid.txt上传数据至1-541-55

CV大模型”,在“操作指引”中单击“前往数1-561-571-48OBS构需要满足数据规范说明1-581-59

图像分类的数据支持两种格式:ModelArtsimageNet1.0格式、ModelArtsimageclassification1.0格式。ModelArtsimageNet1.0 ModelArtsimageclassification1.0:txt├─import-dir- ├─import-dir- 单标签的标签文件示例,如1.txt 多标签的标签文件示例,如2.txt

├─dataset-import-├─dataset-import- <?xmlversion="1.0"encoding="UTF-8"<?xmlversion="1.0"encoding="UTF-8"widthheightdepthname1-50└─└─├──s#├──obj.data#记录数据集信息的文件及路径信息(相对路径├──train.txt#训练集中各图片路径信息(相对路径├──valid.txt#验证集中各图片路径信息(相对路径├──obj_train_data/#│image1.txt#image1对应的带标签bbox│├──│├──│├──│├──obj_valid_data/#│├──│├──│├──│├──│├──classesclasses5train=<path/to/train.txt>#例如train.txtvalid<path/to/valid.txt>#valid.txtbackup=backup/#可选label1#label1的indexlabel1#label1的index0label2#label2的index1<path/to/image1.jpg>#<path/to/image1.jpg>#例如<path/to/image2.jpg>#例如obj_train_data/和obj_valid_data/目录下的.txt文件应该包含对应图像的###<label_index><x_center><y_center><width><height>00.2500000.4000000.3000000.40000030.6000000.4000000.400000其中x_center,y_center,width,和height分别表示归一化后的目标框中心点x

图像分割的数据支持格式为ModelArtsimagesegmentation1.0├─dataset-import-├─dataset-import- <?xml<?xmlversion="1.0"encoding="UTF-8"widthheightdepth表示图像分割保存的maskobjectname1-52CV大模型”,在“操作指引”中单击“前往创1-601-611-531-621-63表1-54参数说明说明1-641-651-661-67算法服务”页面,查看已经更新后的1-681-55需用户参考三方算法管理1-56给用户自己的终端地址WebhookURL

支持扩展名为avi、wmv、mpg、mpeg、mp4、mov、m4v、mkv

用户可以在“预置应用>1-691-57视频源所在地理位置(经纬度),1-58REST接口的URL1-70图1-71视频源管理1-72容器镜像需要选择“image_tag1-731-74

在“预置应用视觉感知视频源管理”页面,选择“视频源分组”页签,进入1-751-59

1-76视频源分组”页面,单击“操作”列的“编辑”,对指定分组进行

针对符合GB/T28181协议、GA/T1400规范的视频数据,可以通过视频平台管理功能1-771-60平台回写视图库1-78

视频分析作业的结果,支持WebhookWebhook:将作业的运行结果直接发送给用户自己的终端地址Webhook当作业的输出结果为Webhook运行Webhook设置好的终端地址WebhookURL。在创建作业前,需确保WebhookService已运行成下面以一个简单的python脚本作为示例,展示如何启动WebhookService并保存接收使用ifconfig命令在Linux服务器上查询服务器IPimportfromwsgiref.simple_serverimportfromwsgiref.simple_serverimportdefapplication(environ,start_response('200OK',[('Content-Type',request_body=environ["wsgi.input"].read(int(environ.get("CONTENT_LENGTH",return("200ifname=="main":port=6006httpd=make_server("",port,application)print"servinghttponport{0}...".format(str(port))说明创建作业时,算法输出WebhookURL设置为:http://${IP}:${port}。例如,http://python1-80在左侧导航栏中选择“预置应用>1-811-61发送给用户设置好的终端地址WebhookURL。启动Webhook可参考运行WebhookService。支持以tps://开头长度不超过0的ur,填写自己ebhoo服务的实际地址即可。图1-82作业状态1-831-84

图1-85作业时间表在创建完作业后,可在“预置应用视觉感知任务管理”页面查看所有作业的状1-861-871-62类型一:获取Webhook到用户指定的WebhookURL中。例如运行WebhookService中的示例脚本将接收到的Webhook消息写在与脚本同目录告警ID,生成的唯一告警事件UUIDdata如果是区域入侵,则是“in”或者“outinout如果是区域入侵,则是“in”或者“outinoutwh告警目标对应的UUID1-88

1-891-90

说明

1-911-641-92

检测目标的长宽的最小像素,取值范围[60,4000],默认值为60检测目标的长宽最大像素,取值范围[1080,4000],默认值为1080{"side1_name":"Side1","side2_name":"Side2"}}],"po}。未设置检测区域时,默认全屏都是检测区域。取值范围[20,100],默认为90,表示图片压缩比为90%

统计设定时间周期内的人流量结果,单位为秒。取值范围为(0,86400],默认值为统计当前时刻的区域人流量结果,单位为秒。取值范围为(0,86400],默认值为{"side1_name":"Side1","side2_name":"Side2"}}],"po}。未设置检测区域时,默认全屏都是检测区域。单位为秒。取值范围为[10,86400],默认值为10s单位为帧。取值范围为[1,10000],默认值为4。在热力图检测周期内,热点值逐关键岗位检测区域的最少人数,取值范围为[1,100],默认值为2单位为检测周期个数。取值范围为[1,3600],默认值为60。假设告警触发阈值为关键区域检测周期,单位为秒。取值范围为[1,3600],默认值为1s。当时间到达整个视频帧中间的1/4取值范围[20,100],默认为90,表示图片压缩比为90%取值范围[20,100],默认为90,表示图片压缩比为90%取值范围[20,100],默认值是100。如果输入8080%---为[20,3600],单位为秒。最长停车阈值为1小时。同辆车重复上报的时间间隔,取值范围[30,86400],单位为秒,默认为30s。最取值范围[20,100],默认为90,表示图片压缩比为90%禁止进入区域,区域参数。用"name":"pohibit_entering_aea电动车入侵禁止进入区域,则触发入侵事件。当同时设置"legal_aea"与"illegal_aea时,生效的为"illegal_aea",在绘制渲染区域时,也只会渲染非法停车区域。取值范围[20,100],默认为90,表示图片压缩比为90%为[10,3600],默认值为50,单位秒。为[10,3600],默认值为40,单位秒。

取值范围[20,100],默认为90,表示图片压缩比为90%值范围[10,300],默认值为10。为秒,取值范围为[1,150],默认值为5,建议取值范围为[1,告警时间阈值/2]取值范围[20,100],默认为90,表示图片压缩比为90%人群聚集(含横幅检测取值为single或periodic。默认值:single取值范围[1,30],默认为10s。表示10举例:ROI有3个,当输入253020,只要有其中一个ROI告警,则发送图片。当输入2515时,则第三个ROI会用默认值50补齐,也即变成251550。当输入25362340时,算法自动选择前3个,也即253623。默认是0,取值范围[01]。1表示打开,0表示关闭。默认每个ROI区域检测到的人表示启用密度估计模型,表示不启用。默认为值较大的场景启用密度估计模型。当人数较少、告警人数阈值较低的场景可不用密度估计模型。图片压缩百分比,取值范围为[20,100]。默认值为90,表示图片压缩比为90%[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}取值范围[20,100],默认值是90。如果输入8080%次。取值范围:[30,86400],最长时间间隔为24小时。图片压缩百分比,取值范围为[20,100]。默认值为90,表示图片压缩比为90%

[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}尺寸的垃圾目标将不被告警。取值范围[1,500]。默认值为1。[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}取值范围[20,100],默认为90,表示图片压缩比为90%共享单车违停告警模式,共有两种告警模式single和perioid,默认值为single共享单车违停检测周期,单位为秒,默认值为60。取值范围为[1,3600]是否开启全渲染开关在输出图片中,取值范围[0,1],默认值为若e为"legal"和"illegal"该字段为JSON格式的字符串,AP调用时需要加转义符。例如:{"po取值范围[20,100],默认为90,表示图片压缩比为90%当检测到垃圾桶满溢达到该时长是触发告警。取值范围[30,3600],单位秒。默认[1824,526],[78,526]],"name":"po可为每个区域设置名称,后续输出结果时会连带输出区域名称。参数没有携带时,默认全屏都是检测区域。取值范围为[20,100],默认值:90。如果输入8080%当检测到垃圾桶处于异常状态(未合盖)当检测到垃圾桶状态异常达到该时长是触发告警。取值范围[30,3600],单位秒。[1824,526],[78,526]],"name":"po。参数没有携带时,默认全屏都是检测区域。取值范围为[20,100],默认值为90。如果输入8080%取值范围[20,100],默认为90,表示图片压缩比为90%

取值范围[20,100],默认为90,表示图片压缩比为90%取值范围[20,100],默认为90,表示图片压缩比为90%取值范围[1,10],默认为1s。表示1秒采样一次视频画面。此参数决定了算法检测取值范围[20,100],默认为90,表示图片压缩比为90%

取值范围[1,10],默认为1s。表示1秒采样一次视频画面。此参数决定了算法检测取值范围[20,100],默认为90,表示图片压缩比为90%

取值范围[20,100],默认为90,表示图片压缩比为90%

取值范围[20,100],默认为90,表示图片压缩比为90%

取值范围[20,100],默认为90,表示图片压缩比为90%

取值范围[20,100],默认为90,表示图片压缩比为90%高点摄像机人数统计(10-默认值:10s,取值范围[5,30],单位秒。默认10秒采样一次视频画面,两次处理N的计算方式:sampling_time_interval*视频fps。例如,视频fps=25默认是0,取值范围[01]。默认每个感兴趣区域(ROI区域)检测到的人数大于告取值范围[20,100],默认为90,表示图片压缩比为90%[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}默认值为,表示采用经典的OI设置模式。否则,输入值表示在水平方向划分的网格数量,每个网格对应一个独立的检测区域。例如输入分了个网格作为独立的检测区域。假设图像的宽为,最右边一列网格的宽度等于和下取整的差,其它列网格的宽度都分别为下取整。同时,按照上述方式平均划分网格后,每个网格的宽度需大于个像素,即水平方向网格数的取值范围为下取整和两者的最小值]。默认值为,表示采用经典的OI设置模式。否则,输入值表示在垂直方向划分的网格数量,每个网格对应一个独立的检测区域,例如输入分了个网格作为独立的检测区域。假设图像的高为,最底下一行网格的高度等于和下取整的差。同时,按照上述方式平均划分网格后,每个网格的高度需大于个像素,即垂直方向网格数的取值范围为,下取整和0两者的最小值。排口状态上报的周期,单位分钟。取值[1,360],默认值为5

检测周期,单位分钟。取值范围[1,360],默认值为1图1-93在水尺上加标定线单位分钟。[1,360]默认值为1(ROI管理)OI是指视频画面中的感兴趣区域(nfIntet)。在视频处理中,OI是指在整个视频画面中被选定或者突出显示的特定区域,通常是用户关注或者分析的重点区域。通过选择OI而节省计算资源和提高处理速度。视觉感知”,进入视频源管理页。图1-94视频源管理1-95通 绘制检测区域,绘制完成后,在下方将生成检测区域图,可以通过“复1-96

需求管理”页面查看所有的审批单。图1-97查看审批单

进入“运营管理中心>1-98开通算法权限/需求管理”页面,单击申请单位列的名称。图1-99需求管理图1-100调整配额/NLP城市智能中枢平台P大模型功能,依托于盘古大模型服务。数据,为模型提供了丰富的知识和信息,帮助模型更好地理解和生成自然语言文本,可以覆盖多个领域场景的业务应用。并通过不断地收集和整理各种类型数据,持续优化模型,使模型具备对中文词汇、语法、语义等特征的深度分析能力。可以应用于智能客服、营销文案生成、文档问答、纪要生成、观点提取、内容总结等多种场景。安装并配置GPU

步骤1安装GPUx86_64-bashNVIDIA-Linux-x86_64-nvidia-步骤2以root用户登录边缘节点。步骤3执行如下命令创建设备文件。nvidia-modprobe-c0-步骤4mkdir-p/var/IEF/nvidia/drivers/var/IEF/nvidia/bin步骤5cp/lib/modules/{当前环境内核版本号}/kernel/drivers/video/nvi*/var/IEF/cp/usr/bin/nvidia-*cp-rd/usr/lib64/libcuda*/var/IEF/nvidia/lib64/cp-rd/usr/lib64/libEG*/var/IEF/nvidia/lib64/cp-rd/usr/lib64/libGL*/var/IEF/nvidia/lib64/cp-rd/usr/lib64/libnv*/var/IEF/nvidia/lib64/cp-rd/usr/lib64/libOpen*cp-rd/usr/lib64/libvdpau_nvidia*/var/IEF/nvidia/lib64/cp-rd/usr/lib64/vdpau/var/IEF/nvidia/lib64/对于Ubuntucp/lib/modules/{当前环境内核版本号}/kernel/drivers/video/nvi*/var/IEF/cp/usr/bin/nvidia-*cp-rd/usr/lib/x86_64-linux-gnu/libcuda*/var/IEF/nvidia/lib64/cp-rd/usr/lib/x86_64-linux-gnu/libEG*/var/IEF/nvidia/lib64/cp-rd/usr/lib/x86_64-linux-gnu/libGL*/var/IEF/nvidia/lib64/cp-rd/usr/lib/x86_64-linux-gnu/libnv*/var/IEF/nvidia/lib64/cp-rd/usr/lib/x86_64-linux-gnu/libOpen*cp-rd/usr/lib/x86_64-linux-gnu/libvdpau_nvidia*/var/IEF/nvidia/lib64/cp-rd/usr/lib/x86_64-linux-gnu/vdpau/var/IEF/nvidia/lib64/其中,当前环境内核版本号可以使用uname-r命令查看获取,如下所示,请替换为实步骤6chmod-R755----通过互联网连接

您可以通过ping如果能ping

xx.xx.xx.xxxx.xx.xx.xxxx.xx.xx.xxregion0_id:RegionID,例如为sa-fb-1“sa-fb-1”为RegionID,“”为外部Global域名。域名中“obsv3”为OBS域名前缀,“sa-fb-1”为RegionID,通过专线或VPN连接

1-101VPN

创建VPC说明VPN:“运营帮助中心>虚拟专用网络>用户指南>创建>申请VPNDC:“运营帮助中心>云专线>用户指南>创建>1-1021-103IP29911-dg-29911-dg-2-dg-region0_id:RegionID,例如为sa-fb-1这里共需添加2“sa-fb-1”为RegionID,“”为外部Global域名。域名中“obsv3”为OBS域名前缀,“sa-fb-1”为RegionID,22文档版本01文档版本01(2024-04-表2-1镜像启动用户ID镜像内部启动的用户必须加入到用户组HwHiAiUserHCS于异步推理的算法(例如:视频类算法)原则上也可以采用简易集成的方式(表2-2POSTPOST"id":"b6806683c0694c01b5ce1af62b5fe52d","id":"b6806683c0694c01b5ce1af62b5fe52d","input":{"type":"url","data":{"url":"outputs":"type":"webhook","data":{"url":"config":"common":"target_roi":"congestion_sw":"flow_static_interval":"abnormal_park_sw":"abnormal_park_threshold":"abnormal_park_output_interval":"congestion_output_interval":"task_id":"aaaaa"//表2-3Object"error_code":"error_code":"error_msg": GET 表2-4"state":"error":{"code":"","message":状态上报接口鉴权与解密Python"User-Agent":"HttpClient","X-Project-ID":project_id,"X-Security-Token":token}r=signer_func(ak,sk,body_info,headers_info,defsigner_func(ak_info,sk_info,body_info,headers_info,notification_url):sig=signer.Signer()#SettheAK/SKtosignandauthenticatetherequest.sig.Key=ak_infor=resp=requests.request(r.method,r.scheme+"://"+r.host+r.uri,headers=r.headers,data=r.body,verify=False,timeout=3)returnPythondefdefget_max_length(rsa_key,encrypt=True)->#先计算hashhashObj=#模长mouduleLen=ifnotencrypt:#return#明文长度最长:模长-hash长度*2-2maxlength=mouduleLen-hashLen*2-2return##defdecrypt_by_private_key(message:bytes)->importredecrypt_result=b""company_pri_file=private_key_raw=open(company_pri_file,encoding='utf-8').read()prikey_buf=RSA.importKey(private_key_raw)max_length=get_max_length(OAEP_private_key,False)decrypt_message=base64.b64decode(message)whileinput=decrypt_message[:max_length]decrypt_message=decrypt_message[max_length:]out=OAEP_private_key.decrypt(input)decrypt_result+=outreturnmodelbox::StatusRsaCipherOAEP::GetContextAndKey(modelbox::StatusRsaCipherOAEP::GetContextAndKey(boolisDecrypt){if(privKey==nullptr){automsg=std::string("GetContextAndKey,EVP_PKEY_newfailed.");return{modelbox::STATUS_FAULT,msg};key=if(ctx==nullptr){return{modelbox::STATUS_FAULT,msg};context=if(isDecrypt)if(EVP_PKEY_decrypt_init(ctx)<=0)automsg=std::string("GetContextAndKey,EVP_PKEY_decrypt_initfailed.");return{modelbox::STATUS_FAULT,msg};}elseif(EVP_PKEY_encrypt_init(ctx)<=0)automsg=std::string("GetContextAndKey,EVP_PKEY_encrypt_initfailed.");return{modelbox::STATUS_FAULT,msg};EVP_PKEY_CTX_set_rsa_padding(ctx,RSA_PKCS1_OAEP_PADDING);EVP_PKEY_CTX_set_rsa_oaep_md(ctx,EVP_sha256());EVP_PKEY_CTX_set_rsa_mgf1_md(ctx,EVP_sha256());automsg=std::string("GetContextAndKey,success");MBLOG_DEBUG<<msg;returnstd::vector<unsignedchar>autobool_ret=modelbox::Base64Decode(cipher,&temp_vec);std::stringtemp;temp.assign(temp_vec.begin(),temp_vec.end());if(!bool_ret){returnmodelbox::STATUS_FAULT;autoret=RsaDecrypt(temp,return表2-5从环境变量notification_url周期上报,周期是"instance_id":"5845be59b0324d929b0e288003f37f2e","data":{"state":"tasks":"id":"c290f07dad8841db80aa098e184ed59d","state":"RUNNING"表2-6表2-7DataInfoObjectArrayof2-8TaskInfoObject表2-9从环境变量notification_url周期上报,周期是"instance_id":"c290f07dad8841db80aa098e184ed59d","data":{"id":"c290f07dad8841db80aa098e184ed59d","state":"SUCCEEDED"2-10DataInfo表2-11DataInfoObject2-12POSTPOST"isv":"id":"e7eac2af0ea0446f88efeb1ead16d626","ak":"QH9123J25FR2HC5ZVML3","sk":"******","securityToken":"******"//通过userid关联作业"id":"ac7c797e03c949b7878cc67eb3547961","ak":"******","sk":"**

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论