图片检测
接口介绍
该接口用于第三方小程序应用为授权小程序检测用户上传的图片是否包含违法违规内容。
注意:
- 关于该接口作用以及使用的更多说明,可以参考原文档 图片检测 V2。二者逻辑一致,只是前者针对普通小程序,后者是提供给服务商使用。
请求
基本信息
基本 | |
---|---|
|
|
|
|
| 授权小程序授予开发管理权限 |
请求体(json)
参数名 | 参数类型 | 是否必须 | 备注 |
---|---|---|---|
|
| 是 | 授权小程序 appid |
|
| 是 | 授权小程序接口调用凭据 |
|
| 否 | 检测的图片链接 |
|
| 否 | 图片数据的 base64 格式,有 image 字段时,此字段无效 |
请求体示例
{ "app_id": "ttxxxxxxxxxxxxxxxx", "access_token": "XXX", "image": "https://image.url" }
注意:
- image 和 image_data 至少存在一个,同时存在时 image_data 无效。
响应
响应体
参数名 | 参数类型 | 备注 |
---|---|---|
|
| 检测结果-状态码 |
|
| 检测结果-消息 |
|
| 检测结果-置信度列表 |
predicts 说明:
参数名 | 参数类型 | 备注 |
---|---|---|
|
| 检测结果-置信度-模型/标签 |
|
| 检测结果-置信度-结果,当值为 true 时表示检测的图片包含违法违规内容,比如是广告 |
model_name 的取值
模型特征 | 说明 |
---|---|
| 图片涉黄 |
| 领导人漫画 |
| 特殊标志 |
| 敏感旗帜 |
| 敏感文字 |
| 敏感人物 |
| 图片血腥 |
| 未准入台标 |
| 图片涉毒 |
| 社会事件 |
| 爆炸 |
| 人民币 |
| 极端服饰 |
| 敏感地图 |
| 大会堂 |
| 色情动漫 |
| 建党纪念 |
响应体示例
{ "error": 0, "message": "image censor success", "predicts": [ { "model_name": "anniversary_flag", "hit": false }, { "model_name": "bloody", "hit": false }, { "model_name": "high_risk_boom", "hit": false }, { "model_name": "cartoon_leader", "hit": false }, { "model_name": "fandongtaibiao", "hit": false }, { "model_name": "leader_recognition", "hit": false }, { "model_name": "high_risk_money", "hit": false }, { "model_name": "plant_ppx", "hit": false }, { "model_name": "porn", "hit": false }, { "model_name": "sensitive_flag", "hit": false }, { "model_name": "high_risk_sensitive_map", "hit": false }, { "model_name": "sensitive_text", "hit": false }, { "model_name": "high_risk_social_event", "hit": false }, { "model_name": "high_risk_terrorist_uniform", "hit": false }, { "model_name": "party_founding_memorial", "hit": false }, { "model_name": "cartoon_porn", "hit": false }, { "model_name": "great_hall", "hit": false } ] }
错误码
错误码 | message |
---|---|
1 | 参数有误 |
2 | access_token 校验失败 |
3 | 图片下载失败 |
4 | 服务内部错误 |