AI

Dolphin

Dolphin是由清华大学与海天瑞声联合开发的面向东方语言的语音识别大模型,支持40种语言及22种中文方言,具备高精度语音转文字能力。采用CTC-Attention架构,结合E-Branchformer和Transformer技术,提升识别效率与准确性。模型开源,支持自定义语言与地区设置,适用于会议记录、语音输入、智能助手等多种场景。

Edicho

Edicho 是一种基于扩散模型的图像编辑工具,能够在多图像间实现一致性编辑,无需额外训练。其核心技术包括 Corr-Attention 注意力模块和 Corr-CFG 去噪策略,通过显式图像对应关系提升编辑质量与一致性。适用于图像修复、风格转换、内容创作、医学影像增强等场景,具备良好的兼容性与扩展性。

KYP.ai

KYP.ai的功能只要是通过工具识别可以通过自动化工具解决的障碍和低效,并向客户管理员提供建议。

VRAG

VRAG-RL是阿里巴巴通义大模型团队推出的视觉感知驱动的多模态RAG推理框架,旨在提升视觉语言模型在处理视觉丰富信息时的检索、推理和理解能力。通过定义视觉感知动作空间,实现从粗粒度到细粒度的信息获取,并结合强化学习和综合奖励机制优化模型性能。该框架支持多轮交互推理,具备良好的可扩展性,适用于智能文档问答、视觉信息检索、多模态内容生成等多种场景。

MetaLaw

MetaLaw是一款基于AI的法律类案检索工具,能够通过争议焦点快速定位相关案例,提供AI总结、法条引用等功能,同时支持个性化案例推荐、案例对比分析及思维导图辅助梳理。其核心功能包括精准类案检索、AI分析助理、一键直达类案、案例对比分析、AI总结与法条引用等,适用于诉讼准备、法律研究、合规审查、法律咨询及教育培训等多种场景。

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。

360Zhinao2

360Zhinao2-7B是一款由360公司开发的大规模AI语言模型,具备强大的语言理解和生成能力,支持多语言交流和复杂的数学逻辑推理。其核心特性包括灵活的上下文处理、高效的训练技术和广泛的适用性,可应用于智能客服、教育辅助、内容创作和信息检索等多个领域。

DeepFiction Ai

一款为用户创造个性化的沉浸式叙事体验的AI故事生成器。无论是冒险、浪漫故事,DeepFiction都能根据用户的提示生成新颖的短篇小说。

OptoChat AI

OptoChat AI是国内首款面向光子领域的AI大模型,整合超30万条光子芯片相关数据资源,具备强大的数据分析与智能算法能力。可实现光子芯片设计优化、工艺验证、文献检索等功能,显著提升研发效率,缩短设计周期。适用于科研、制造、教育及市场分析等多个场景,推动光子产业智能化发展。

智谱清言

智谱清言AI助手基于智谱 AI 自主研发的中英双语对话模型 ChatGLM2,经过万亿字符的文本与代码预训练,并采用有监督微调技术,以通用对话的形式为用户提供智能化服务。