评估

易途AI面试官

易途AI面试官是一款基于AI技术的模拟面试工具,支持多种岗位和行业,提供真实面试场景、智能追问及多维度评估功能。它能帮助求职者提升面试技巧,同时为企业提高招聘效率和精准度,具备个性化练习与流程优化等特点。

Math24o

Math24o 是 SuperCLUE 开源的高中奥林匹克数学竞赛级别数学推理测评基准,基于 2024 年全国高中数学竞赛预赛试题,包含 21 道高难度解答题。评测通过程序自动判断答案一致性,客观评估模型正确率。支持自动化评估流程,适用于教育、学术研究和模型优化等领域,为数学推理能力的提升提供重要工具。

咕噜口语SpeakGuru

SpeakGuru是一款由清华团队开发的AI口语练习工具,通过与虚拟人物对话提升英语口语能力。支持中文辅助、语法优化、发音评估等功能,涵盖100+真实场景,适配不同英语水平用户。内置错题本、词汇统计、个性化学习计划等模块,帮助用户全面掌握学习进度。已接入DeepSeek R1模型,提升智能化学习体验。

URO

URO-Bench 是一个面向端到端语音对话模型的综合评估工具,支持多语言、多轮对话及副语言信息处理。它包含基础和高级两个赛道,分别涵盖16个和20个数据集,覆盖开放性问答、情感生成、多语言任务等。支持多种评估指标,提供简单易用的评估流程,并兼容多种语音对话模型。适用于智能家居、个人助理、语言学习等多个实际应用场景。

SuperGPQA

SuperGPQA是由字节跳动豆包团队与M-A-P联合开发的知识推理基准测试集,覆盖285个研究生级学科,包含26529道题目。其核心功能是评估大语言模型的泛化能力和真实推理水平,42.33%的题目涉及数学计算或形式推理。该测试集采用专家与大语言模型协同构建的方式,确保题目质量,并涵盖STEM与非STEM领域,填补了长尾学科评估的空白。适用于模型性能评估、优化指导及跨学科研究等多种应用场景。

MME

MME-CoT 是一个用于评估大型多模态模型链式思维推理能力的基准测试框架,涵盖数学、科学、OCR、逻辑、时空和一般场景六大领域,包含1,130个问题,每题均附关键推理步骤和图像描述。该框架引入推理质量、鲁棒性和效率三大评估指标,全面衡量模型推理能力,并揭示当前模型在反思机制和感知任务上的不足,为模型优化和研究提供重要参考。

AgentSociety

AgentSociety是由清华大学开发的基于大语言模型的社会模拟平台,通过构建具有“类人心智”的智能体,模拟复杂的社会行为与现象。平台支持城市环境建模、大规模社会模拟和科研工具集成,适用于社会舆论传播、政策评估、社会极化分析及灾害响应研究。其技术特点包括异步模拟架构、分布式计算和MQTT通信,具备高度可扩展性和实时交互能力。

Crawl4LLM

Crawl4LLM是由清华与CMU联合开发的智能爬虫系统,通过评估网页对大语言模型预训练的价值,提升数据获取效率。支持多种爬取模式,具备状态保存、数据可视化功能,并与DCLM框架兼容。采用多维度评分机制优化爬取策略,减少低价值内容抓取,降低对网站负担,适用于LLM预训练、数据集构建等场景。

FoloUp

FoloUp 是一款开源的 AI 语音面试平台,能根据职位描述自动生成面试问题,并通过自然语言交互与候选人进行语音面试。系统支持实时分析、评分与报告生成,提供数据仪表盘用于跟踪候选人表现。平台支持一键分享、远程面试和批量招聘,结合语音识别、NLP 和安全数据管理技术,适用于多种招聘场景,提升招聘效率与质量。

Collaborative Gym

Collaborative Gym(Co-Gym)是一款支持人机协作的开发框架,具备异步交互、任务环境设计和多维评估功能。它通过模拟与真实环境支持开发者进行高效迭代与实际部署,适用于旅行规划、表格分析和文献综述等多种协作任务,提升人机协作效率与质量。