多模态

Florence

Florence-2是微软Azure AI团队研发的多功能视觉模型,支持图像描述、目标检测、视觉定位和图像分割等功能。该模型基于Transformer架构,采用序列到序列学习方法,利用自注意力机制实现多模态信息融合。通过训练大规模数据集,Florence-2在多个应用场景中表现出色,包括图像和视频分析、内容审核、辅助驾驶、医疗影像分析以及零售和库存管理。

飞书知识问答

飞书知识问答是一款基于AI技术的企业级知识管理工具,支持多数据源接入与实时搜索,提供结构化答案生成、智能问答、标准问答库管理等功能。支持多模态回答,兼容多种AI模型,适用于知识管理、智能客服、团队协作等场景,提升信息处理效率与准确性。

智谱API

新用户免费领1亿tokens,基于领先的千亿级多语言、多模态预训练模型,打造高效率、通用化的“模型即服务”AI开发新范式。

Aya Vision

Aya Vision 是 Cohere 推出的多模态、多语言视觉模型,支持 23 种语言,具备图像描述生成、视觉问答、文本翻译和多语言摘要生成等能力。采用模块化架构与合成标注技术,确保在资源有限条件下仍具高效表现。适用于教育、内容创作、辅助工具开发及多语言交流等多个场景,具有广泛的实用价值。

UniTok

UniTok是由字节跳动联合高校研发的统一视觉分词器,支持视觉生成与理解任务。其采用多码本量化技术,将视觉特征分割并独立量化,显著提升离散token的表示能力。在ImageNet上实现78.6%的零样本分类准确率,图像重建质量达0.38。可作为多模态大语言模型的视觉输入模块,广泛应用于图像生成、视觉问答、内容创作及跨模态检索等场景。

VideoLLaMA3

VideoLLaMA3 是阿里巴巴开发的多模态基础模型,支持视频与图像的深度理解和分析。基于 Qwen 2.5 架构,结合先进视觉编码器与语言生成能力,具备高效时空建模与多语言处理能力。适用于视频内容分析、视觉问答、字幕生成等场景,提供多种参数版本,支持灵活部署。

EmoLLM

EmoLLM 是一款基于多模态技术的心理健康支持工具,能通过文本、图像和视频分析用户情绪,提供情绪识别、心理辅导和情感支持。其核心包括多视角视觉投影、情感引导提示和指令微调技术,支持个性化辅导、角色扮演及多轮对话,适用于心理健康评估与干预场景。

XMusic

XMusic是腾讯多媒体实验室开发的AI作曲框架,支持多模态输入(如图片、文字、视频等)生成情绪、风格、节奏可控的高质量音乐。其核心技术包括多模态解析、符号音乐表示与生成优化,具备商用级音乐生成能力。适用于视频配乐、互动娱乐、音乐教育、辅助创作及音乐治疗等多个场景,有效降低音乐创作门槛,提升创作效率与个性化体验。

Pangea

Pangea是一款由卡内基梅隆大学团队开发的多语言多模态大型语言模型,支持39种语言,具备多模态理解和跨文化覆盖能力。其主要功能包括多语言文本生成与理解、图像描述、视觉问答等,同时通过高质量指令和文化相关任务优化性能。Pangea基于丰富的数据集和先进的模型架构,适用于多语言客户服务、教育、跨文化交流等多个领域。

BuboGPT

BuboGPT是一个创新的大型多模态语言模型,它通过结合视觉、音频和文本输入,提供了一种全新的交互体验。