AI模型

Moshi

Moshi是一款由法国Kyutai实验室开发的端到端实时音频多模态AI模型,具备听、说、看的能力,并能模拟70种不同的情绪和风格进行交流。Moshi具有多模态交互、情绪和风格表达、实时响应低延迟、语音理解与生成、文本和音频混合预训练以及本地设备运行等特点。它支持英语和法语,主要应用于虚拟助手、客户服务、语言学习、内容创作、辅助残障人士、研究和开发、娱乐和游戏等领域。

DAM

DAM-3B是英伟达开发的多模态大语言模型,专用于图像和视频中特定区域的详细描述。支持点、边界框、涂鸦或掩码等方式指定目标区域,生成精准文本描述。其核心技术包括焦点提示与局部视觉骨干网络,有效融合全局与局部特征。DAM-3B-Video版本扩展至视频处理,适用于动态场景。模型基于Transformer架构,支持多模态输入,广泛应用于内容创作、智能交互及无障碍工具等领域。

FUSION BRAIN

FUSION BRAIN是一款基于AI的图像生成工具,能够根据文本描述生成高质量图像,并支持多种艺术风格和格式。用户可对生成的图像进行编辑和优化,适用于艺术创作、广告设计、游戏开发等多个领域。平台提供API接口,便于开发者集成与使用,是创意人员和研究人员的理想选择。

Xiaomi MiMo

Xiaomi MiMo 是小米推出的推理型大模型,具备强大的数学推理与代码生成能力。通过预训练与后训练相结合,利用大量高价值语料及强化学习算法,在 7B 参数规模下实现超越更大模型的表现。支持多场景应用,包括教育、科研、软件开发等,已开源至 HuggingFace,便于开发者使用与研究。

TIGER

TIGER是由清华大学研发的轻量级语音分离模型,采用时频交叉建模策略与多尺度注意力机制,有效提升语音分离性能,同时显著降低计算和参数开销。模型通过频带切分优化资源利用,适应复杂声学环境,广泛应用于会议记录、视频剪辑、电影音频处理及智能语音助手等领域。

Gemini 2.5 Flash

Gemini 2.5 Flash 是 Google 推出的高性能 AI 模型,具备低延迟、高效率及推理能力,适用于代码生成、智能代理和复杂任务处理。其优化设计降低了计算成本,适合大规模部署。该模型基于 Transformer 架构,结合推理机制和模型压缩技术,提升了响应速度与准确性,广泛应用于智能开发、内容生成和实时交互等领域。

MiniCPM 4.0

MiniCPM 4.0是面壁智能推出的高效端侧大模型,包含8B和0.5B两种参数规模。其采用创新稀疏架构和三值量化技术,实现模型体积缩小90%并保持高性能。自研CPM.cu推理框架在极限场景下可提升220倍速度,支持多种开源框架部署,并适配主流芯片。具备高效双频换挡机制、多平台适配和多种版本选择,适用于智能辅导、医疗辅助、客服、游戏剧情生成等场景。

Sky

Sky-T1是由加州大学伯克利分校NovaSky团队开发的开源推理AI模型,具备高性价比和强大推理能力。其训练成本仅450美元,数据来源经过优化处理,可在数学、编程和科学领域表现出色。模型支持用户从零复现,适用于教育、科研及软件开发等场景。在MATH500和LiveCodeBench测试中,Sky-T1表现优于部分早期OpenAI模型,展现出良好的实用价值。

33字幕

33字幕是一款集语音识别与文本翻译于一体的AI字幕生成工具,支持多种语言的语音转文字及翻译,可实现实时字幕生成与同步翻译。用户可通过本地AI模型免费运行,显著降低使用成本。该工具具备边识别边生成字幕、台词搜索等功能,广泛应用于视频创作、教育培训、企业会议等领域。

SigLIP 2

SigLIP 2 是 Google DeepMind 开发的多语言视觉-语言模型,具有强大的图像与文本对齐能力。它支持多种语言输入,具备零样本分类、图像-文本检索等功能,并通过 Sigmoid 损失函数和自监督学习技术提升训练效率与模型性能。其支持多种分辨率的变体,适用于文档理解、视觉问答及开放词汇任务。该模型基于 Vision Transformer 架构,具备良好的兼容性。