广告推销网站,咸阳学校网站建设多少钱,乐东黎族自治县住房建设局网站,东营市新闻最新消息1.引言
通过上篇文章介绍 OmniParser:下一代纯视觉UI自动化测试先驱相信大家已经对OmniParser有初步了解#xff0c;接下来详细介绍下OmniParser使用了哪些技术模型实现了对UI纯视觉的检测和理解。
2.整体方案
通过阅读OmniParser提供的运行Demo代码知道#xff0c;其实整…1.引言
通过上篇文章介绍 OmniParser:下一代纯视觉UI自动化测试先驱相信大家已经对OmniParser有初步了解接下来详细介绍下OmniParser使用了哪些技术模型实现了对UI纯视觉的检测和理解。
2.整体方案
通过阅读OmniParser提供的运行Demo代码知道其实整个UI纯视觉检测主要分为2部分涉及3个环节分别是图片OCR、图片icon检测、图片元素理解分别使用的模型为
环节模型作用图片OCRpaddle_ocr识别图片文字区域和坐标图片icon检测yolov8n获取图片目标区域和坐标图片元素理解Florence-2-base-ft对检测到的元素理解
以下是从官网提供的demo程序中的截取 def parse(self, image_base64: str):image_bytes base64.b64decode(image_base64)image Image.open(io.BytesIO(image_bytes))print(image size:, image.size)box_overlay_ratio max(image.size) / 3200draw_bbox_config {text_scale: 0.8 * box_overlay_ratio,text_thickness: max(int(2 * box_overlay_ratio), 1),text_padding: max(int(3 * box_overlay_ratio), 1),thickness: max(int(3 * box_overlay_ratio), 1),}(text, ocr_bbox), _ check_ocr_box(image, display_imgFalse, output_bb_formatxyxy, easyocr_args{text_threshold: 0.8}, use_paddleocrFalse)dino_labled_img, label_coordinates, parsed_content_list get_som_labeled_img(image, self.som_model, BOX_TRESHOLD self.config[BOX_TRESHOLD], output_coord_in_ratioTrue, ocr_bboxocr_bbox,draw_bbox_configdraw_bbox_config, caption_model_processorself.caption_model_processor, ocr_texttext,use_local_semanticsTrue, iou_threshold0.7, scale_imgFalse, batch_size128)return dino_labled_img, parsed_content_list, label_coordinates3.模型的介绍
3.1 Paddle_ocr
官方针对图片字符识别推荐使用的是paddle_ocr猜测原因应该是效果不错 开源接下来介绍下paddle_ocr基本使用。
3.1.1安装
pip install paddleocr由于PaddleOCR支持多种语言需要设置一些配置参数以下为Demo设置的参数识别的语言设置的英文这里如果识别中文修改为lang‘ch’
paddle_ocr PaddleOCR(langen, # other lang also availableuse_angle_clsFalse,use_gpuFalse, # using cuda will conflict with pytorch in the same processshow_logFalse,max_batch_size1024,use_dilationTrue, # improves accuracydet_db_score_modeslow, # improves accuracyrec_batch_num1024)
result paddle_ocr.ocr(image_np, clsFalse)[0]识别结果格式示例如下分为有文本框文字和识别置信度
[[[28.0, 37.0], [302.0, 39.0], [302.0, 72.0], [27.0, 70.0]], (纯臻营养护发素, 0.9658738374710083)]
......3.2 YOLOv8n
3.2.1. 图标检测模型简介
图标检测模型是OmniParser-v2的基础组件之一主要负责从屏幕截图中识别并定位可交互的UI元素如按钮、输入框等。该模型经过大规模数据集训练能够检测最小至8×8像素的元素确保在各种分辨率和界面复杂度下都能准确识别。使用的检测模型为YOLOv8以下为官网的介绍 YOLOv8 was released by Ultralytics on January 10th, 2023, offering cutting-edge performance in terms of accuracy and speed. Building upon the advancements of previous YOLO versions, YOLOv8 introduced new features and optimizations that make it an ideal choice for various object detection tasks in a wide range of applications. 翻译YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日发布在准确率和速度方面提供一流的性能。在之前 YOLO 版本的改进基础上YOLOv8 引入了新功能和优化使其成为广泛应用中各种对象检测任务的理想选择。 下面图片是官网提供COCO数据上检测结果对比v8一共有5种变形模型从官方的测试结果看yolov8n其实是效果最差的不知OmniParser为啥选这个检测模型。 # Display model information (optional)
model.info()# Train the model on the COCO8 example dataset for 100 epochs
results model.train(datacoco8.yaml, epochs100, imgsz640)# Run inference with the YOLOv8n model on the bus.jpg image
results model(path/to/bus.jpg)这里推荐个YOLO网络结构可视化的工具netron具体用法可以搜下后续再抽时间解读网络结构。
3.2.3 YOLOv8 主要特点
先进的主干和颈部架构 YOLOv8 employs state-of-the-art backbone and neck architectures, resulting in improved feature extraction and object detection performance. 无锚分割 Ultralytics 头 YOLOv8 adopts an anchor-free split Ultralytics head, which contributes to better accuracy and a more efficient detection process compared to anchor-based approaches. 优化的准确度-速度权衡 With a focus on maintaining an optimal balance between accuracy and speed, YOLOv8 is suitable for real-time object detection tasks in diverse application areas. 优化的准确度-速度权衡 YOLOv8 offers a range of pre-trained models to cater to various tasks and performance requirements, making it easier to find the right model for your specific use case. 3. Florence-2
Florence-2 是微软与2024年6月发布的多模态大模型专为视觉理解任务设计旨在处理多种视觉和视觉-语言任务。它在计算机视觉领域展现了强大的泛化能力能够处理多种视觉任务如图像理解、对象检测、图像字幕生成等。
Florence-2 主要特点
通用视觉理解采用模块化设计方便集成不同的LLM满足多样化需求。多模态学习结合自然语言处理能力实现视觉-语言任务如图像字幕生成和视觉问答。大规模数据训练使用大规模、高质量的数据集进行训练提升模型的泛化能力和鲁棒性。高效推理优化了计算效率使其能够在云端和本地设备上快速推理。跨任务一致性在不同的视觉任务上表现稳定适用于多种应用场景如自动驾驶、医疗影像分析和智能监控。
在官网Demo中可以看出使用的是Florence-2-baseModel size是0.23B整体比较小下面是运行模型的demo程序。
import requestsfrom PIL import Image
from transformers import AutoProcessor, AutoModelForCausalLM device cuda:0 if torch.cuda.is_available() else cpu
torch_dtype torch.float16 if torch.cuda.is_available() else torch.float32model AutoModelForCausalLM.from_pretrained(microsoft/Florence-2-base-ft, torch_dtypetorch_dtype, trust_remote_codeTrue).to(device)
processor AutoProcessor.from_pretrained(microsoft/Florence-2-base-ft, trust_remote_codeTrue)prompt ODurl https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/car.jpg?downloadtrue
image Image.open(requests.get(url, streamTrue).raw)inputs processor(textprompt, imagesimage, return_tensorspt).to(device, torch_dtype)generated_ids model.generate(input_idsinputs[input_ids],pixel_valuesinputs[pixel_values],max_new_tokens1024,do_sampleFalse,num_beams3
)
generated_text processor.batch_decode(generated_ids, skip_special_tokensFalse)[0]parsed_answer processor.post_process_generation(generated_text, taskOD, image_size(image.width, image.height))print(parsed_answer)
4.结语
OmniParser-v2通过集成上述多种先进模型实现了从屏幕截图到结构化数据的高效转换为大型语言模型赋予了实际的计算机操作能力。但仔细分析使用的模型分支都为参数量最小的实际测试下来效果的话也会大打折扣猜测应该是因为开源替换了原先效果更优的模型。后续继续挖掘下每个模型具体的实现以及如何进行模型的微调帮助大家能在具体的业务场景实现定制化。
参考资料
paddleocr官方文档ultralyticsFlorence-2-base-HF