开源

3D

3D-Speaker是一个多模态开源项目,专注于通过结合声学、语义和视觉信息,实现高精度的说话人识别和语种识别。其主要功能包括说话人日志、说话人识别、语种识别、多模态识别以及重叠说话人检测。项目提供了工业级模型、训练与推理代码,以及多样化数据集,并支持复杂环境下的语音处理任务。应用场景涵盖会议记录、法庭记录、广播制作、电话客服和安全监控等领域。

OpenMath

OpenMath-Nemotron是由英伟达推出的一系列开源数学推理模型,专为解决复杂数学问题设计,涵盖从基础到奥林匹克级别的题目。其基于大规模数据集OpenMathReasoning训练,具备长推理、多模式推理和工具集成推理能力。模型支持多种应用场景,包括数学教育、竞赛训练、学术研究和工业应用。项目提供GitHub、HuggingFace和arXiv等资源,适用于需要高精度数学推理的AI系统开发

V-JEPA

创新的自监督学习模型,它通过预测视频帧的特征表示来学习视频的视觉表示。这种方法不仅能够处理视频内容,还能在图像任务上表现出色,具有广泛的应用潜力。

Manga Image Translator

Manga Image Translator 是一个开源的漫画图片文字翻译工具,基于 OCR 和机器翻译技术,实现对漫画和图片中文字的自动识别与翻译。它支持多语言翻译,包括日文、中文、英文和韩文,并具备图像合成能力,保持原图风格。工具提供批量处理和在线/离线翻译功能,适用于漫画爱好者、语言学习者以及出版商等用户群体。

SpeciesNet

SpeciesNet 是 Google 开发的 AI 模型,用于识别相机陷阱图像中的动物物种,支持超过 2000 种标签分类,涵盖动物、分类群及非生物对象。基于 6500 万张图像训练,具备高效数据处理和跨场景识别能力,适用于野生动物监测、生物多样性研究及生态保护。模型开源,可在 GitHub 获取,支持开发人员部署与优化。

StarVector

StarVector 是一个开源多模态视觉语言模型,支持图像和文本到可编辑 SVG 文件的转换。采用多模态架构,结合图像编码与语言模型,生成结构紧凑、语义丰富的 SVG 内容。基于 SVG-Stack 数据集训练,适用于图标设计、艺术创作、数据可视化等多种场景,具备良好的性能和扩展性。

书生·筑梦2.0(Vchitect 2.0)

书生·筑梦2.0是一款由上海人工智能实验室开发的开源视频生成大模型,支持文本到视频和图像到视频的转换,生成高质量的2K分辨率视频内容。它具备灵活的宽高比选择、强大的超分辨率处理能力以及创新的视频评测框架,适用于广告、教育、影视等多个领域。

DeepSeek R1

DeepSeek R1-Zero 是一款基于纯强化学习训练的推理模型,无需监督微调即可实现高效推理。在 AIME 2024 竞赛中 Pass@1 分数达到 71.0%,展现强大逻辑与数学推理能力。支持长上下文处理,具备自我进化、多任务泛化等特性,并通过开源和蒸馏技术推动模型应用与优化。

Zerox

Zerox是一款基于GPT-4o-mini模型的开源OCR工具,支持多种文件格式,具备零样本识别能力,可高效处理扫描文档和复杂布局内容。其输出为Markdown格式,便于编辑与使用,同时提供API接口,适用于企业文档管理、学术研究、法律金融等多个场景,显著提升文档处理效率和准确性。

NextChat

NextChat 是一个基于 Next.js 和 Vercel 的开源项目,允许用户将 ChatGPT 等 AI 大模型集成到自己的网页应用中。该工具支持多平台部署,具备一键式部署功能,并提供完整的 Markdown 支持。NextChat 可用于个人助理、客户服务、教育辅导、内容创作和技术支持等多个领域。