模型

VLM

VLM-R1 是由 Om AI Lab 开发的视觉语言模型,基于 Qwen2.5-VL 架构,结合强化学习优化技术,具备精准的指代表达理解和多模态处理能力。该模型适用于复杂场景下的视觉分析,支持自然语言指令定位图像目标,并在跨域数据中表现出良好的泛化能力。其应用场景涵盖智能交互、无障碍辅助、自动驾驶、医疗影像分析等多个领域。

Mini DALL·E 3

Mini DALL·E 3是一款由多所高校联合开发的交互式文本到图像生成工具,支持多轮自然语言对话,实现高质量图像的生成与编辑。系统结合大型语言模型与文本到图像模型,提供内容一致性控制与问答功能,提升交互体验。广泛应用于创意设计、故事插图、概念设计、教育及娱乐等领域,具有高效、灵活和易用的特点。

悟道大模型

北京智源研究院开发的一系列超大规模智能模型系统,悟道大模型旨在在语言处理领域达到或超越国际先进水平。

GAS

GAS是一种从单张图像生成高质量、视角一致且时间连贯虚拟形象的AI工具,结合3D人体重建与扩散模型技术,支持多视角合成与动态姿态动画。其统一框架提升模型泛化能力,适用于游戏、影视、体育及时尚等领域,具备高保真度与真实感。

Moonshine

Moonshine是一款专为资源受限设备设计的高效语音识别模型,支持实时语音转文本,具有低延迟、高准确率的特点。它基于编码器-解码器架构和旋转位置嵌入技术,适应不同长度的音频输入,计算需求随音频长度变化而调整,适合边缘设备部署。主要应用于会议转录、语音助手、听力辅助及多语言翻译等领域。

Skyo

Skyo是一款基于天工AI大模型技术的智能语音对话助手,具备快速响应、多语言对话、实时打断、情感化回应及个性化记忆等功能。它能根据用户情绪提供拟人化回复,并支持长时间对话和个性化声音定制。Skyo可应用于情感陪伴、个性化交互、多语言客服、时事新闻聊天、教育辅助和生活助理等多个场景,旨在为用户提供高质量的互动体验。

InftyThink

InftyThink是一种创新的大模型推理范式,通过分段迭代和阶段性总结的方式,突破传统模型在长推理任务中的上下文窗口限制,显著降低计算复杂度并提升推理性能。它适用于数学问题求解、逻辑推理、代码生成、智能辅导及药物研发等多个领域,具备良好的工程可落地性和广泛的适用性。

DiffusionGPT

DiffusionGPT是一款基于大型语言模型的开源文本到图像生成系统,由字节跳动与中山大学联合开发。它采用思维树和优势数据库技术,能够解析和处理多样化的文本提示,生成高质量图像。系统通过多模型的选择与集成、基于人类反馈的优化以及高效的图像生成执行,实现了从文本到图像的无缝转换。DiffusionGPT适用于多种应用场景,具有广泛适用性和灵活性。

OOTDiffusion

OOTDiffusion是一款开源AI虚拟试衣工具,支持根据用户上传的模特和服装图片生成自然贴合的试穿效果,具有智能适配、多种试穿模式及快速生成等特点。它通过预训练扩散模型、Outfitting UNet、Outfitting Fusion等技术实现高质量服装图像生成,适用于电商、设计、定制服务等多个领域。

MultiBooth

MultiBooth是一种由多所高校和研究机构联合开发的多概念图像生成工具,能够根据文本提示生成包含多个指定概念的高质量图像。其核心技术包括单概念学习和多概念整合,采用多模态编码器、自适应归一化和区域定制化模块,实现高效、精准的图像生成。支持插件式架构,具备良好的扩展性和灵活性,适用于创意设计、广告、教育、电商及科研等多个领域。