corpus
stringclasses 4
values | category
stringclasses 9
values | dataset
stringclasses 23
values | task
stringclasses 69
values | prompt
stringclasses 52
values | model
stringclasses 48
values | ckpt_num
int64 1k
47.7k
| score
float64 -0.08
100
|
|---|---|---|---|---|---|---|---|
HPLT 3.0
|
Reading comprehension
|
coqcat
|
coqcat_p0
|
{{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Q: "+questions[i]+"\n\n"+"A: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Q: "+questions[-1]+"\n\n"+"A:"}}
|
100B
| 47,684
| 40.434
|
HPLT 3.0
|
Reading comprehension
|
coqcat
|
coqcat_p1
|
{{story+"\n\n"}}Respecte al passatge anterior, la resposta correcta a la pregunta és: {% for i in range(questions|length-1) %}{{"Pregunta: "+questions[i]+"\n\n"+"Resposta: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Pregunta: "+questions[-1]+"\n\n"+"Resposta:"}}
|
100B
| 47,684
| 38.856
|
HPLT 3.0
|
Reading comprehension
|
coqcat
|
coqcat_p2
|
Llegeix el següent passatge i contesta la pregunta\n\nPassatge: {{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Pregunta: "+questions[i]+"\n\n"+"Resposta: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Pregunta: "+questions[-1]+"\n\n"+"Resposta:"}}
|
100B
| 47,684
| 39.906
|
HPLT 3.0
|
Machine translation
|
flores_en-ca
|
flores_en-ca_p0
|
Translate the following sentence into Catalan: {{sentence_eng_Latn}}
Catalan:
|
100B
| 47,684
| 19.64
|
HPLT 3.0
|
Machine translation
|
flores_en-ca
|
flores_en-ca_p1
|
Translate the sentence from English to Catalan.
Source sentence (English): {{sentence_eng_Latn}}
Target sentence (Catalan):
|
100B
| 47,684
| 4.162
|
HPLT 3.0
|
Machine translation
|
flores_en-ca
|
flores_en-ca_p2
|
The following sentence is written in English. Translate it into Catalan.
English: {{sentence_eng_Latn}}
Catalan:
|
100B
| 47,684
| 19.252
|
HPLT 3.0
|
Mathematical reasoning
|
mgsm_direct_ca
|
mgsm_direct_ca_p0
|
Pregunta: {{question}}
Resposta:
|
100B
| 47,684
| 0.008
|
HPLT 3.0
|
Mathematical reasoning
|
mgsm_direct_ca
|
mgsm_direct_ca_p1
|
Respon amb claredat i precisió a la pregunta següent
{{question}}
Resposta:
|
100B
| 47,684
| 0.008
|
HPLT 3.0
|
Mathematical reasoning
|
mgsm_direct_ca
|
mgsm_direct_ca_p2
|
Respon a la següent pregunta:
{{question}}
Raona la teva resposta:
|
100B
| 47,684
| 0
|
HPLT 3.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p0
|
question_stem
|
100B
| 47,684
| 32
|
HPLT 3.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p1
|
{{question_stem}}
A. {{choices['text'][0]}}
B. {{choices['text'][1]}}
C. {{choices['text'][2]}}
D. {{choices['text'][3]}}
Resposta:
|
100B
| 47,684
| 28.8
|
HPLT 3.0
|
Language-specific & world knowledge
|
openbookqa_ca
|
openbookqa_ca_p2
|
{{question_stem}}
Opció A: {{choices['text'][0]}}
Opció B: {{choices['text'][1]}} C: {{choices['text'][2]}}
Opció D: {{choices['text'][3]}}
És la resposta correcta A, B, C o D?
|
100B
| 47,684
| 27.6
|
HPLT 3.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p0
| null |
100B
| 47,684
| 58.825
|
HPLT 3.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p1
|
Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta:
|
100B
| 47,684
| 50.35
|
HPLT 3.0
|
Paraphrase detection
|
parafraseja
|
parafraseja_p2
|
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta:
|
100B
| 47,684
| 50.525
|
HPLT 3.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p0
| null |
100B
| 47,684
| 50.4
|
HPLT 3.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p1
|
Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta:
|
100B
| 47,684
| 54.65
|
HPLT 3.0
|
Paraphrase detection
|
paws_ca
|
paws_ca_p2
|
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta:
|
100B
| 47,684
| 44.35
|
HPLT 3.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p0
|
Pregunta: {{goal}}
Resposta:
|
100B
| 47,684
| 68.172
|
HPLT 3.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p1
|
{{goal}}
A. {{sol1}}
B. {{sol2}}
Resposta:
|
100B
| 47,684
| 48.912
|
HPLT 3.0
|
Commonsense reasoning
|
piqa_ca
|
piqa_ca_p2
|
{{goal}}
A. {{sol1}}
B. {{sol2}}
Quina és la resposta correcta?
|
100B
| 47,684
| 49.51
|
HPLT 3.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p0
|
Pregunta: {{context}} {{question}}
Resposta:
|
100B
| 47,684
| 38.025
|
HPLT 3.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p1
|
Passatge: {{context}}
Pregunta: {{question}}
A. {{answerA}}
B. {{answerB}}
C. {{answerC}}
Resposta:
|
100B
| 47,684
| 32.395
|
HPLT 3.0
|
Commonsense reasoning
|
siqa_ca
|
siqa_ca_p2
|
Llegeix el passatge i respon a la pregunta: {{context}}
{{question}}
Opció A: {{answerA}}
Opció B: {{answerB}}
Opció C: {{answerC}}
És la resposta correcta A, B o C?
|
100B
| 47,684
| 32.907
|
HPLT 3.0
|
Entailment
|
teca
|
teca_p0
| null |
100B
| 47,684
| 43.505
|
HPLT 3.0
|
Entailment
|
teca
|
teca_p1
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi:
|
100B
| 47,684
| 33.916
|
HPLT 3.0
|
Entailment
|
teca
|
teca_p2
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta:
|
100B
| 47,684
| 32.31
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p0
|
Respon a la següent pregunta:
{{question}}
Resposta:
|
100B
| 47,684
| 0.323
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p1
|
Respon amb claredat i precisió a la pregunta següent:
{{question}}
Resposta:
|
100B
| 47,684
| 1.29
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_gen
|
veritasqa_ca_gen_p2
|
Proporciona una resposta detallada per a la pregunta següent:
{{question}}
Resposta:
|
100B
| 47,684
| 2.469
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p0
|
Pregunta: {{question}}
Resposta:
|
100B
| 47,684
| 26.629
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p1
|
def mc1_p1(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(letters[:-1])} o {letters[-1]}?\nResposta:"
|
100B
| 47,684
| 100
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_mc1
|
veritasqa_ca_mc1_p2
|
def mc1_p2(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
|
100B
| 47,684
| 46.176
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p0
|
Pregunta: {{question}}
Resposta:
|
100B
| 47,684
| 44.853
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p1
|
def mc2_p1(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(letters[:-1])} o {letters[-1]}?\nResposta:"
|
100B
| 47,684
| 95.376
|
HPLT 3.0
|
Truthfulness
|
veritasqa_ca_mc2
|
veritasqa_ca_mc2_p2
|
def mc2_p2(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
|
100B
| 47,684
| 55.613
|
HPLT 3.0
|
Entailment
|
wnli_ca
|
wnli_ca_p0
|
{{sentence1}}
Pregunta: {{sentence2}} Cert o Fals?
Resposta:
|
100B
| 47,684
| 45.07
|
HPLT 3.0
|
Entailment
|
wnli_ca
|
wnli_ca_p1
|
Llegeix el text i contesta si l'afirmació és veritable o falsa.
Texto: {{sentence1}}
Afirmación: {{sentence2}}
Resposta:
|
100B
| 47,684
| 43.662
|
HPLT 3.0
|
Entailment
|
wnli_ca
|
wnli_ca_p2
|
{{sentence1}}
Pregunta: {{sentence2}}.
Resposta:
|
100B
| 47,684
| 42.254
|
HPLT 3.0
|
Entailment
|
xnli_ca
|
xnli_ca_p0
| null |
100B
| 47,684
| 48.554
|
HPLT 3.0
|
Entailment
|
xnli_ca
|
xnli_ca_p1
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi:
|
100B
| 47,684
| 33.976
|
HPLT 3.0
|
Entailment
|
xnli_ca
|
xnli_ca_p2
|
Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta:
|
100B
| 47,684
| 34.859
|
HPLT 3.0
|
Reading comprehension
|
xquad_ca
|
xquad_ca_p0
|
Context: {{context}}
Pregunta: {{question}}
Resposta:
|
100B
| 47,684
| 13.208
|
HPLT 3.0
|
Reading comprehension
|
xquad_ca
|
xquad_ca_p1
|
{{context}}
Pregunta: {{question}}
Respecte al passatge anterior, la resposta correcta a la pregunta és
|
100B
| 47,684
| 18.222
|
HPLT 3.0
|
Reading comprehension
|
xquad_ca
|
xquad_ca_p2
|
Llegeix el següent passatge i contesta la pregunta.
Passatge: {{context}}
Pregunta: {{question}}
Resposta:
|
100B
| 47,684
| 13.318
|
HPLT 3.0
|
Commonsense reasoning
|
xstorycloze_ca
|
xstorycloze_ca_p0
|
{{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4]|join(' ')}}
|
100B
| 47,684
| 63.666
|
HPLT 3.0
|
Commonsense reasoning
|
xstorycloze_ca
|
xstorycloze_ca_p1
|
Llegeix la següent història: {{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4]|join(' ')}}
Tria la continuació correcta:
- {{sentence_quiz1}}
- {{sentence_quiz2}}
|
100B
| 47,684
| 47.32
|
HPLT 3.0
|
Commonsense reasoning
|
xstorycloze_ca
|
xstorycloze_ca_p2
|
{{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4] | join(' ') }}
Què ocorre després?
A. {{ sentence_quiz1}}
B. {{sentence_quiz2}}
Resposta:
|
100B
| 47,684
| 53.276
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.