ログイン
Language:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. カンファレンス等
  2. NTCIR
  3. 18th (2024-2025)

PanguIR Technical Report for NTCIR-18 AEOLLM Task

https://doi.org/10.20736/0002002029
https://doi.org/10.20736/0002002029
990c7f32-c986-46ac-807e-2d899a185752
名前 / ファイル ライセンス アクション
05-NTCIR18-AEOLLM-MeiL.pdf 05-NTCIR18-AEOLLM-MeiL.pdf (785.6 KB)
アイテムタイプ デフォルトアイテムタイプ(フル)(1)
公開日 2025-06-06
タイトル
タイトル PanguIR Technical Report for NTCIR-18 AEOLLM Task
言語 en
作成者 Lang Mei

× Lang Mei

en Lang Mei

Search repository
Chong Chen

× Chong Chen

en Chong Chen

Search repository
Jiaxin Mao

× Jiaxin Mao

en Jiaxin Mao

Search repository
内容記述
内容記述タイプ Abstract
内容記述 As large language models (LLMs) gain widespread attention in both academia and industry, it becomes increasingly critical and challenging to effectively evaluate their capabilities. Existing evaluation methods can be broadly categorized into two types: manual evaluation and automatic evaluation. Manual evaluation, while comprehensive, is often costly and resource-intensive. Conversely, automatic evaluation offers greater scalability but is constrained by the limitations of its evaluation criteria (dominated by reference-based answers). To address these challenges, NTCIR-18\footnote{https://research.nii.ac.jp/ntcir/ntcir-18/tasks.html#AEOLLM} introduced the AEOLLM (Automatic Evaluation of LLMs) task, aiming to encourage reference-free evaluation methods that can overcome the limitations of existing approaches. In this paper, to enhance the evaluation performance of the AEOLLM task, we propose three key methods to improve the reference-free evaluation: 1) Multi-model Collaboration: Leveraging multiple LLMs to approximate human ratings across various subtasks; 2) Prompt Auto-optimization: Utilizing LLMs to iteratively refine the initial task prompts based on evaluation feedback from training samples; and 3) In-context Learning (ICL) Optimization: Based on the multi-task evaluation feedback, we train a specialized in-context example retrieval model, combined with a semantic relevance retrieval model, to jointly identify the most effective in-context learning examples. Experiments conducted on the final dataset demonstrate that our approach achieves superior performance on the AEOLLM task.
言語 en
出版者
出版者 NII Institutional Repository
言語 en
日付
日付 2025-06-06
日付タイプ Issued
言語
言語 eng
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
ID登録
ID登録 10.20736/0002002029
ID登録タイプ JaLC
関連情報
関連タイプ isReferencedBy
識別子タイプ URI
関連識別子 https://research.nii.ac.jp/ntcir/ntcir-18/index.html
言語 en
関連名称 NTCIR-18 Conference
開始ページ
開始ページ none
会議記述
会議名 NTCIR-18 Conference
言語 en
回次 18
主催機関 National Institute of Informatics
言語 en
開始年 2025
開始月 6
開始日 10
終了年 2025
終了月 6
終了日 13
開催期間 June 10-13, 2025
言語 en
開催会場 National Institute of Informatics
言語 en
開催国 JPN
戻る
0
views
See details
Views

Versions

Ver.1 2025-06-04 08:00:50.147343
Show All versions

Share

Share
tweet

Cite as

Other

print

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX
  • ZIP

コミュニティ

確認

確認

確認


Powered by WEKO3


Powered by WEKO3