问答

蜜巢政务大模型

蜜巢为蜜度自主研发的政务大模型,在研发工作中,构建了Token数超1万亿、中文内容占比超75%的高质量语料数据集用于预训练工作。

OmniAlign

OmniAlign-V是由多所高校联合开发的多模态大语言模型对齐数据集,包含约20万个多模态样本,涵盖自然图像和信息图表。其核心功能包括提供高质量训练数据、提升模型的开放式问答能力、增强推理与创造力,并支持模型持续优化。数据集通过图像筛选、任务设计及后处理优化确保数据质量,适用于多模态对话系统、图像辅助问答、创意生成等多个应用场景。

Chatgpt4o.ai

一个提供免费访问GPT-4o模型的平台,用户可以提出各种问题并获得答案。

子曰

子曰-o1是网易有道推出的国内首款支持分步式讲解的推理模型,采用14B参数轻量化设计,适配消费级显卡,在低显存设备上运行稳定。通过思维链技术模拟人类思考过程,输出详细解题步骤,特别适合教育场景,如K12数学教学和AI学习辅助。其具备强逻辑推理能力和自我纠错机制,支持启发式学习,提升用户理解与自主学习能力。

小门道AI

小门道AI平台专注于AI绘画、AI问答和AI图片处理功能,是基于Midjourney进行优化、简化、汉化的绘图工具。

CogAgent

CogAgent是一款由清华大学与智谱AI联合开发的多模态视觉大模型,专注于图形用户界面(GUI)的理解与导航。它具备视觉问答、视觉定位、GUI Agent、高分辨率图像处理及多模态能力,可应用于自动化测试、智能交互、多模态人工智能应用开发、企业级AI Agent平台等多个领域。CogAgent在多个基准测试中表现出色,尤其在GUI操作数据集上显著超越现有模型。

LongCite

LongCite是清华大学研发的一项旨在提升大型语言模型在长文本问答中可信度和可验证性的项目。它通过生成细粒度的句子级引用,帮助用户验证模型回答的准确性。LongCite包含LongBench-Cite评估基准、CoF自动化数据构建流程、LongCite-45k数据集,以及基于该数据集训练的模型。这些模型能够处理长文本内容,提供准确的问答服务,并附带可追溯的引用,增强信息的透明度和可靠性。

AIMv2

AIMv2是苹果公司开发的开源多模态自回归预训练视觉模型,通过图像与文本的深度融合提升视觉理解能力。其采用图像块与子词标记拼接的方式进行自回归预训练,支持多种参数规模,适用于不同设备。具备视觉问答、指代表达理解、图像字幕生成、多媒体检索等功能,并可无缝集成到大型语言模型中。模型在多个视觉任务中表现优异,具备良好的可扩展性和零样本适应能力。

HybridRAG

HybridRAG是一种结合了检索增强生成模型的混合架构,通过检索系统和生成模型的协同工作,生成更准确和丰富的输出。其主要功能包括信息检索、上下文理解、知识融合和生成能力。HybridRAG适用于多种自然语言处理任务,如问答系统、文本摘要和对话生成,能够利用大量外部知识提高生成内容的质量和相关性。

Soundwave

Soundwave是由香港中文大学(深圳)开发的开源语音理解大模型,专注于语音与文本的智能对齐与处理。它采用对齐适配器和压缩适配器技术,提升语音特征压缩效率,支持语音翻译、语音问答、情绪识别及多模态交互等功能。适用于智能语音助手、语言学习、内容创作等多个领域,具有广泛的应用前景。