定位

Browser Use

Browser Use是一款基于大语言模型的智能浏览器工具,支持多标签页管理和视觉识别,可提取网页内容并记录操作步骤。它允许开发者自定义动作,如保存文件或推送至数据库,并兼容多种主流LLM模型,具备并行运行和自我修正能力,旨在提升任务执行效率与准确性。

Tarsier

字节跳动推出的一系列大规模视觉语言模型(LVLM),专注于视频理解任务,包括视频描述、问答、视频定位、幻觉测试等功能。

Uten.Shop

TikTok官方指定的全球首家直播电商数据分析平台,Uten.Shop专注于为TikTok上的红人及商家提供精准的数据分析服务,旨在提升直播带货效率和营销效果。

豆包视觉理解模型

豆包视觉理解模型是一款集视觉识别、理解推理和复杂逻辑计算于一体的先进AI工具。它具备强大的视觉定位能力,支持多目标、小目标和3D定位,并能识别物体的类别、形状、纹理等属性,理解物体间的关系和场景含义。此外,模型在视频理解方面表现出色,能够进行记忆、总结、速度感知和长视频分析。凭借其高效性和成本优势,该模型广泛应用于图片问答、医疗影像分析、教育科研、电商零售及内容审核等领域。

YOLO

腾讯AI实验室开发的一个实时目标检测工具,它能够自动识别和定位图像中的各种对象

MMedAgent

MMedAgent是一款面向医疗领域的多模态AI平台,集成了指令优化的多模态大型语言模型(MLLM)及一系列定制化医疗工具,支持多种医学成像模式(如MRI、CT、X射线等),可高效处理视觉问答、分类、定位、分割、医学报告生成(MRG)及检索增强生成(RAG)等任务,显著提升了医疗数据处理效率与准确性。

AddressCLIP

AddressCLIP 是一种基于 CLIP 技术的端到端图像地理定位模型,由中科院自动化所与阿里云联合开发。它通过图像与地址文本对齐和地理匹配技术,实现街道级别的精确定位,无需依赖 GPS。模型在多个数据集上表现优异,适用于城市管理、社交媒体、旅游导航等多个场景,具备良好的灵活性和多模态结合潜力。

LongDocURL

LongDocURL是一个由中国科学院自动化研究所和阿里巴巴联合发布的多模态长文档理解基准数据集,包含2,325组问答对,覆盖33,000页文档,涉及20个子任务。该数据集专注于评估AI模型在长文档理解、数值推理、跨元素定位及多样化任务中的性能,支持文本、图像和表格等多种模式,具有高质量和多样性的特点。

ProtGPS

ProtGPS是一款由MIT与怀特黑德生物医学研究所开发的深度学习模型,用于预测蛋白质在细胞内的亚细胞定位。它基于Transformer架构,能准确识别蛋白质在12种不同亚细胞区域的分布,并支持设计特定定位的蛋白质序列。该工具还可分析致病突变对蛋白质定位的影响,为疾病机制研究、蛋白质工程和药物开发提供新思路。

Diffree

一款通过AI技术可根据文本描述智能地向图像中添加新对象,Diffree让你只需一句话就可以为您的图片添加新元素,不需要复杂的操作就可以体验简单高效的图像编辑工具。