评估

Self

Self-Taught Evaluators是一种无需人工标注数据的模型评估框架,通过自我训练方式增强大型语言模型(LLM)的评估能力。其核心在于利用LLM生成对比输出并进行迭代优化,显著提升了模型评估的准确性,达到了与顶级奖励模型相媲美的效果,广泛适用于语言模型开发、内容评估、教育科研以及技术支持等领域。

CursorCore

CursorCore 是一款基于大型语言模型的编程辅助工具,通过对话式交互支持代码补全、修改和错误修复。它整合代码历史、上下文信息及用户指令,利用自动化数据生成管道和基准测试优化模型性能,适用于日常编码、代码审查、教学学习及遗留代码维护等多个场景。

易途AI面试官

易途AI面试官是一款基于AI技术的模拟面试工具,支持多种岗位和行业,提供真实面试场景、智能追问及多维度评估功能。它能帮助求职者提升面试技巧,同时为企业提高招聘效率和精准度,具备个性化练习与流程优化等特点。

LOKI

LOKI是一个由中山大学与上海AI实验室联合推出的合成数据检测基准,用于评估大型多模态模型在识别视频、图像、3D模型、文本及音频等多模态合成数据方面的性能。它包含超过18,000个问题,涵盖26个子类别,支持多层次标注和细粒度异常注释,并通过自然语言解释增强模型的可解释性。LOKI还通过对比多种开源和闭源模型的表现,揭示了这些模型在合成数据检测任务中的优势与不足。

VQAScore

VQAScore是一种基于视觉问答(VQA)模型的评估工具,用于衡量文本提示生成图像的质量。它通过计算回答“是”概率的方式评估图像与文本提示的对齐程度,无需额外标注,提供更精确的结果。VQAScore支持多种生成任务,包括图像、视频及3D模型,并能作为多模态学习的研究工具,在自动化测试和质量控制中发挥重要作用。

MME

MME-CoT 是一个用于评估大型多模态模型链式思维推理能力的基准测试框架,涵盖数学、科学、OCR、逻辑、时空和一般场景六大领域,包含1,130个问题,每题均附关键推理步骤和图像描述。该框架引入推理质量、鲁棒性和效率三大评估指标,全面衡量模型推理能力,并揭示当前模型在反思机制和感知任务上的不足,为模型优化和研究提供重要参考。

Sky

Sky-T1是由加州大学伯克利分校NovaSky团队开发的开源推理AI模型,具备高性价比和强大推理能力。其训练成本仅450美元,数据来源经过优化处理,可在数学、编程和科学领域表现出色。模型支持用户从零复现,适用于教育、科研及软件开发等场景。在MATH500和LiveCodeBench测试中,Sky-T1表现优于部分早期OpenAI模型,展现出良好的实用价值。

方便面AI面试

AI面试工具是企业智能化招聘的解决方案,支持全球候选人通过微信小程序或浏览器参与结构化初筛面试。具备智能画像、语义分析、表情识别等功能,从能力适配度、文化匹配度和领导力潜质三方面评估候选人。支持多岗位、多语言、多时区接入,与主流招聘系统无缝对接,提升招聘效率与精准度,适用于全球化、校园、远程及中高端人才招聘场景。

AgentSociety

AgentSociety是由清华大学开发的基于大语言模型的社会模拟平台,通过构建具有“类人心智”的智能体,模拟复杂的社会行为与现象。平台支持城市环境建模、大规模社会模拟和科研工具集成,适用于社会舆论传播、政策评估、社会极化分析及灾害响应研究。其技术特点包括异步模拟架构、分布式计算和MQTT通信,具备高度可扩展性和实时交互能力。

微点

Abit是一款基于生成式大语言模型的智能考试系统,可将文本内容转化为多样化考题,支持多种题型生成、即时评分、考试报告分析及个性化学习建议等功能,广泛应用于企业培训、知识考核等领域,助力提升学习效率与培训效果。