<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Patrickdrouin</id>
	<title>DataFranca - Contributions [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Patrickdrouin"/>
	<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/Sp%C3%A9cial:Contributions/Patrickdrouin"/>
	<updated>2026-04-27T07:33:33Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.39.5</generator>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Rappel&amp;diff=120839</id>
		<title>Rappel</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Rappel&amp;diff=120839"/>
		<updated>2026-04-21T19:29:52Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Capacité d&#039;un système à retrouver l&#039;ensemble des réponses pertinentes dans un ensemble de réponses donné. &lt;br /&gt;
&lt;br /&gt;
Voir [[précision]]&lt;br /&gt;
&lt;br /&gt;
== Francais ==&lt;br /&gt;
&#039;&#039;&#039;rappel&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;recall&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]&lt;br /&gt;
&lt;br /&gt;
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source : L&#039;APPRENTISSAGE PROFOND]&lt;br /&gt;
&lt;br /&gt;
[[Category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Category:Apprentissage profond]]&lt;br /&gt;
[[Category:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Pr%C3%A9cision&amp;diff=120838</id>
		<title>Précision</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Pr%C3%A9cision&amp;diff=120838"/>
		<updated>2026-04-21T19:27:22Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Nombre de réponses pertinentes parmi l&#039;ensemble des réponses fournies par un système. &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[justesse]] et [[rappel]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;précision&#039;&#039;&#039;   &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;precision&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]&lt;br /&gt;
&lt;br /&gt;
[[Category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Category:Apprentissage profond]]&lt;br /&gt;
[[Category:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Pr%C3%A9cision&amp;diff=120837</id>
		<title>Précision</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Pr%C3%A9cision&amp;diff=120837"/>
		<updated>2026-04-21T19:26:26Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Nombre de réponses pertinentes parmi l&#039;ensemble des réponses fournies par un système. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[justesse]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;précision&#039;&#039;&#039;   &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;precision&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]&lt;br /&gt;
&lt;br /&gt;
[[Category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Category:Apprentissage profond]]&lt;br /&gt;
[[Category:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Rappel&amp;diff=120836</id>
		<title>Rappel</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Rappel&amp;diff=120836"/>
		<updated>2026-04-21T19:24:47Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Capacité d&#039;un système à retrouver l&#039;ensemble des réponses pertinentes. &lt;br /&gt;
&lt;br /&gt;
Voir [[précision]]&lt;br /&gt;
&lt;br /&gt;
== Francais ==&lt;br /&gt;
&#039;&#039;&#039;rappel&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;recall&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]&lt;br /&gt;
&lt;br /&gt;
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source : L&#039;APPRENTISSAGE PROFOND]&lt;br /&gt;
&lt;br /&gt;
[[Category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Category:Apprentissage profond]]&lt;br /&gt;
[[Category:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Rappel&amp;diff=120835</id>
		<title>Rappel</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Rappel&amp;diff=120835"/>
		<updated>2026-04-21T19:24:11Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Capacité d&#039;un système à retrouver l&#039;ensemble des réponses pertinentes. &lt;br /&gt;
&lt;br /&gt;
== Francais ==&lt;br /&gt;
&#039;&#039;&#039;rappel&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;recall&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]&lt;br /&gt;
&lt;br /&gt;
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source : L&#039;APPRENTISSAGE PROFOND]&lt;br /&gt;
&lt;br /&gt;
[[Category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Category:Apprentissage profond]]&lt;br /&gt;
[[Category:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120834</id>
		<title>ROUGE</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120834"/>
		<updated>2026-04-21T19:22:13Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Ensemble de mesures ou métriques de similarité qui se basent sur les [[N-grammes|n-grammes]] utilisées pour évaluer les logiciels de [[génération automatique de texte]] et de [[traduction automatique]] dans le domaine du [[traitement automatique de la langue naturelle]]. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Dans le cadre d&#039;une tâche de génération automatique de texte, la reprise des idées principales ([[rappel]]) est plus importante que d&#039;obtenir une formulation exacte ([[précision]]), ainsi ROUGE est calculé en comptant le nombre de mots ou de &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; qui se recoupent.&lt;br /&gt;
&lt;br /&gt;
*ROUGE est l&#039;acronyme de « Recall-Oriented Understudy for Gisting Evaluation ».&lt;br /&gt;
*ROUGE peut être calculé à l&#039;aide de bibliothèque (&#039;&#039;library&#039;&#039;) &#039;&#039;&#039;[[SacreBLEU]]&#039;&#039;&#039;. &lt;br /&gt;
*En raison des points faibles de ROUGE, ROUGE 2.0 à été proposé en 2018. &lt;br /&gt;
*Même s&#039;il s&#039;agit d&#039;un ensemble de métriques, on retrouve souvent la mention &#039;&#039;ROUGE score&#039;&#039; dans les textes.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
ROUGE stands for &amp;quot;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&amp;quot; and it is a set of metrics and a software package used for evaluating automatic summarization and machine translation software in natural language processing. It is computed by counting the number of overlapping words or n-grams since capturing key ideas and recall is more important than exact wording for the summarization task.&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W04-1013/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1803.01937   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.geeksforgeeks.org/nlp/understanding-bleu-and-rouge-score-for-nlp-evaluation/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/ROUGE_(metric)  Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120833</id>
		<title>ROUGE</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120833"/>
		<updated>2026-04-21T19:20:51Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Ensemble de mesures ou métriques de similarité qui se basent sur les [[N-grammes|n-grammes]] utilisées pour évaluer les logiciels de [[génération automatique de texte]] et de [[traduction automatique]] dans le domaine du [[traitement automatique de la langue naturelle]]. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Dans le cadre d&#039;une tâche de génération automatique de texte, la reprise des idées principales est plus importante que d&#039;obtenir une formulation exacte, ainsi ROUGE est calculé en comptant le nombre de mots ou de &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; qui se recoupent.&lt;br /&gt;
&lt;br /&gt;
*ROUGE est l&#039;acronyme de « Recall-Oriented Understudy for Gisting Evaluation ».&lt;br /&gt;
*ROUGE peut être calculé à l&#039;aide de bibliothèque (&#039;&#039;library&#039;&#039;) &#039;&#039;&#039;[[SacreBLEU]]&#039;&#039;&#039;. &lt;br /&gt;
*En raison des points faibles de ROUGE, ROUGE 2.0 à été proposé en 2018. &lt;br /&gt;
*Même s&#039;il s&#039;agit d&#039;un ensemble de métriques, on retrouve souvent la mention &#039;&#039;ROUGE score&#039;&#039; dans les textes.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
ROUGE stands for &amp;quot;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&amp;quot; and it is a set of metrics and a software package used for evaluating automatic summarization and machine translation software in natural language processing. It is computed by counting the number of overlapping words or n-grams since capturing key ideas and recall is more important than exact wording for the summarization task.&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W04-1013/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1803.01937   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.geeksforgeeks.org/nlp/understanding-bleu-and-rouge-score-for-nlp-evaluation/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/ROUGE_(metric)  Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120832</id>
		<title>ROUGE</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120832"/>
		<updated>2026-04-21T19:19:55Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Ensemble de mesures ou métriques de similarité qui se basent sur les [[N-grammes|n-grammes]] utilisées pour évaluer les logiciels de [[génération automatique de texte]] et de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; dans le domaine du &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Dans le cadre d&#039;une tâche de génération automatique de texte, la reprise des idées principales est plus importante que d&#039;obtenir une formulation exacte, ainsi ROUGE est calculé en comptant le nombre de mots ou de &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; qui se recoupent.&lt;br /&gt;
&lt;br /&gt;
*ROUGE est l&#039;acronyme de « Recall-Oriented Understudy for Gisting Evaluation ».&lt;br /&gt;
*ROUGE peut être calculé à l&#039;aide de bibliothèque (&#039;&#039;library&#039;&#039;) &#039;&#039;&#039;[[SacreBLEU]]&#039;&#039;&#039;. &lt;br /&gt;
*En raison des points faibles de ROUGE, ROUGE 2.0 à été proposé en 2018. &lt;br /&gt;
*Même s&#039;il s&#039;agit d&#039;un ensemble de métriques, on retrouve souvent la mention &#039;&#039;ROUGE score&#039;&#039; dans les textes.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
ROUGE stands for &amp;quot;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&amp;quot; and it is a set of metrics and a software package used for evaluating automatic summarization and machine translation software in natural language processing. It is computed by counting the number of overlapping words or n-grams since capturing key ideas and recall is more important than exact wording for the summarization task.&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W04-1013/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1803.01937   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.geeksforgeeks.org/nlp/understanding-bleu-and-rouge-score-for-nlp-evaluation/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/ROUGE_(metric)  Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120831</id>
		<title>ROUGE</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=ROUGE&amp;diff=120831"/>
		<updated>2026-04-21T19:17:35Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Ensemble de mesures ou métriques utilisées pour évaluer les logiciels de [[génération automatique de texte]] et de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; dans le domaine du &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Dans le cadre d&#039;une tâche de génération automatique de texte, la reprise des idées principales (&#039;&#039;&#039;&#039;recall&#039;&#039; ou rappel&#039;&#039;) et la précision (&#039;&#039;&#039;&#039;precision&#039;&#039;&#039;&#039;) sont plus importantes que d&#039;obtenir une formulation exacte, ainsi ROUGE est calculé en comptant le nombre de mots ou de &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; qui se recoupent.&lt;br /&gt;
&lt;br /&gt;
*ROUGE est l&#039;acronyme de « Recall-Oriented Understudy for Gisting Evaluation ».&lt;br /&gt;
*ROUGE peut être calculé à l&#039;aide de bibliothèque (&#039;&#039;library&#039;&#039;) &#039;&#039;&#039;[[SacreBLEU]]&#039;&#039;&#039;. &lt;br /&gt;
*En raison des points faibles de ROUGE, ROUGE 2.0 à été proposé en 2018. &lt;br /&gt;
*Même s&#039;il s&#039;agit d&#039;un ensemble de métriques, on retrouve souvent la mention &#039;&#039;ROUGE score&#039;&#039; dans les textes.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; ROUGE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
ROUGE stands for &amp;quot;&#039;&#039;Recall-Oriented Understudy for Gisting Evaluation&#039;&#039;&amp;quot; and it is a set of metrics and a software package used for evaluating automatic summarization and machine translation software in natural language processing. It is computed by counting the number of overlapping words or n-grams since capturing key ideas and recall is more important than exact wording for the summarization task.&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W04-1013/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1803.01937   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.geeksforgeeks.org/nlp/understanding-bleu-and-rouge-score-for-nlp-evaluation/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/ROUGE_(metric)  Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120830</id>
		<title>GML comme juge</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120830"/>
		<updated>2026-04-21T19:09:23Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Ensemble de techniques de &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039; qui utilise un &#039;&#039;&#039;[[grand modèle de langues (GML)]]&#039;&#039;&#039; pour évaluer le travail d&#039;un autre GML. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Une &#039;&#039;&#039;[[requête générative|requête]]&#039;&#039;&#039; effectuée dans le cadre d&#039;une évaluation par un GML comporte en général les trois éléments suivants: le contexte de la tâche et les textes à évaluer, une explication des critères d&#039;évaluation et un format de réponse qui encode la décision du « GML juge ».&lt;br /&gt;
&lt;br /&gt;
*Important: Cette technique ne supprime pas la nécessité du jugement humain.&lt;br /&gt;
*Les GML (comme juge) performants peuvent établir une corrélation étroite avec les jugements humains sur de nombreuses tâches. Cependant, ils présentent des biais systématiques et des défaillances. &lt;br /&gt;
*Dans certains cas, on peut donner au GML qui sert de juge un ou plusieurs textes de référence. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; GML comme juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; GML en tant que juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; LLM-as-a-judge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A (family of) technique(s) in natural language processing that uses one large language model (LLM) to evaluate another LLM’s work. A typical LLM-as-a-Judge setup consists of three elements: an input that contains the task context and candidate outputs to be evaluated, a prompt that explains the evaluation criteria, and a response format that encodes the judge&#039;s decision.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Strong LLM (judges) can correlate closely with human judgments on many tasks. However, it has systematic biases and failure modes. The task can have reference(s) or not. But most importantly, it doesn’t eliminate the need for human judgment.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/hal-04782667v1/file/Techniques%20d%27audit%20des%20LLM%20VF%20HAL.pdf  Duprieu et Berkouk (2024) - GML comme juge]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2411.15594   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/llm-as-a-judge-a-practical-guide/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/LLM-as-a-Judge   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120829</id>
		<title>GML comme juge</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120829"/>
		<updated>2026-04-21T19:08:19Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Une (famille de) technique(s) de &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039; qui utilise un &#039;&#039;&#039;[[grand modèle de langues (GML)]]&#039;&#039;&#039; pour évaluer le travail d&#039;un autre GML. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Une &#039;&#039;&#039;[[requête générative|requête]]&#039;&#039;&#039; effectuée dans le cadre d&#039;une évaluation par un GML comporte en général les trois éléments suivants: le contexte de la tâche et les textes à évaluer, une explication des critères d&#039;évaluation et un format de réponse qui encode la décision du « GML juge ».&lt;br /&gt;
&lt;br /&gt;
*Important: Cette technique ne supprime pas la nécessité du jugement humain.&lt;br /&gt;
*Les GML (comme juge) performants peuvent établir une corrélation étroite avec les jugements humains sur de nombreuses tâches. Cependant, ils présentent des biais systématiques et des défaillances. &lt;br /&gt;
*Dans certains cas, on peut donner au GML qui sert de juge un ou plusieurs textes de référence. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; GML comme juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; GML en tant que juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; LLM-as-a-judge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A (family of) technique(s) in natural language processing that uses one large language model (LLM) to evaluate another LLM’s work. A typical LLM-as-a-Judge setup consists of three elements: an input that contains the task context and candidate outputs to be evaluated, a prompt that explains the evaluation criteria, and a response format that encodes the judge&#039;s decision.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Strong LLM (judges) can correlate closely with human judgments on many tasks. However, it has systematic biases and failure modes. The task can have reference(s) or not. But most importantly, it doesn’t eliminate the need for human judgment.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/hal-04782667v1/file/Techniques%20d%27audit%20des%20LLM%20VF%20HAL.pdf  Duprieu et Berkouk (2024) - GML comme juge]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2411.15594   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/llm-as-a-judge-a-practical-guide/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/LLM-as-a-Judge   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=GML_en_tant_que_juge&amp;diff=120828</id>
		<title>GML en tant que juge</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=GML_en_tant_que_juge&amp;diff=120828"/>
		<updated>2026-04-21T19:06:42Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page GML en tant que juge vers GML comme juge par-dessus une redirection&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[GML comme juge]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120827</id>
		<title>GML comme juge</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120827"/>
		<updated>2026-04-21T19:06:41Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page GML en tant que juge vers GML comme juge par-dessus une redirection&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Une (famille de) technique(s) de &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039; qui utilise un &#039;&#039;&#039;[[grand modèle de langues (GML)]]&#039;&#039;&#039; pour évaluer le travail d&#039;un autre GML. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Une &#039;&#039;&#039;[[requête générative|requête]]&#039;&#039;&#039; effectuée dans le cadre d&#039;une évaluation par un GML comporte en général les trois éléments suivants: le contexte de la tâche et les textes à évaluer, une explication des critères d&#039;évaluation et un format de réponse qui encode la décision du « GML juge ».&lt;br /&gt;
&lt;br /&gt;
*Important: Cette technique ne supprime pas la nécessité du jugement humain.&lt;br /&gt;
*Les GML (comme juge) performants peuvent établir une corrélation étroite avec les jugements humains sur de nombreuses tâches. Cependant, ils présentent des biais systématiques et des défaillances. &lt;br /&gt;
*Dans certains cas, on peut donner au GML qui sert de juge un ou plusieurs textes de référence. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; GML comme juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; GML en tant que juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; LLM-as-a-judge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A (family of) technique(s) in natural language processing that uses one large language model (LLM) to evaluate another LLM’s work. A typical LLM-as-a-Judge setup consists of three elements: an input that contains the task context and candidate outputs to be evaluated, a prompt that explains the evaluation criteria, and a response format that encodes the judge&#039;s decision.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Strong LLM (judges) can correlate closely with human judgments on many tasks. However, it has systematic biases and failure modes. The task can have reference(s) or not. But most importantly, it doesn’t eliminate the need for human judgment.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/hal-04782667v1/file/Techniques%20d%27audit%20des%20LLM%20VF%20HAL.pdf  Duprieu et Berkouk 2024 - GML comme juge]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2411.15594   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/llm-as-a-judge-a-practical-guide/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/LLM-as-a-Judge   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120826</id>
		<title>GML comme juge</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=GML_comme_juge&amp;diff=120826"/>
		<updated>2026-04-21T19:06:23Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Une (famille de) technique(s) de &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039; qui utilise un &#039;&#039;&#039;[[grand modèle de langues (GML)]]&#039;&#039;&#039; pour évaluer le travail d&#039;un autre GML. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Une &#039;&#039;&#039;[[requête générative|requête]]&#039;&#039;&#039; effectuée dans le cadre d&#039;une évaluation par un GML comporte en général les trois éléments suivants: le contexte de la tâche et les textes à évaluer, une explication des critères d&#039;évaluation et un format de réponse qui encode la décision du « GML juge ».&lt;br /&gt;
&lt;br /&gt;
*Important: Cette technique ne supprime pas la nécessité du jugement humain.&lt;br /&gt;
*Les GML (comme juge) performants peuvent établir une corrélation étroite avec les jugements humains sur de nombreuses tâches. Cependant, ils présentent des biais systématiques et des défaillances. &lt;br /&gt;
*Dans certains cas, on peut donner au GML qui sert de juge un ou plusieurs textes de référence. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; GML comme juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; GML en tant que juge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; LLM-as-a-judge&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A (family of) technique(s) in natural language processing that uses one large language model (LLM) to evaluate another LLM’s work. A typical LLM-as-a-Judge setup consists of three elements: an input that contains the task context and candidate outputs to be evaluated, a prompt that explains the evaluation criteria, and a response format that encodes the judge&#039;s decision.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Strong LLM (judges) can correlate closely with human judgments on many tasks. However, it has systematic biases and failure modes. The task can have reference(s) or not. But most importantly, it doesn’t eliminate the need for human judgment.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/hal-04782667v1/file/Techniques%20d%27audit%20des%20LLM%20VF%20HAL.pdf  Duprieu et Berkouk 2024 - GML comme juge]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2411.15594   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/llm-as-a-judge-a-practical-guide/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/LLM-as-a-Judge   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=DAPO&amp;diff=120825</id>
		<title>DAPO</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=DAPO&amp;diff=120825"/>
		<updated>2026-04-21T18:57:47Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page DAPO vers Algorithme d&amp;#039;optimisation DAPO&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Algorithme d&#039;optimisation DAPO]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Algorithme_d%27optimisation_DAPO&amp;diff=120824</id>
		<title>Algorithme d&#039;optimisation DAPO</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Algorithme_d%27optimisation_DAPO&amp;diff=120824"/>
		<updated>2026-04-21T18:57:46Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page DAPO vers Algorithme d&amp;#039;optimisation DAPO&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Algorithme]]&#039;&#039;&#039; d&#039;&#039;&#039;&#039;[[apprentissage par renforcement]]&#039;&#039;&#039; qui utilise une approche découplée pour augmenter la limite supérieure de la plage de l&#039;échantillonnage dynamique. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[optimisation de la politique proximale]]&#039;&#039;&#039;, &#039;&#039;&#039;[[optimisation de la politique relative au groupe]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Complément==&lt;br /&gt;
L’échantillonnage dynamique favorise les données apportant un meilleur apprentissage. &lt;br /&gt;
&lt;br /&gt;
L&#039;un de ses avantages est qu&#039;il n&#039;affecte pas de manière significative la durée totale de l&#039;&#039;&#039;&#039;[[entraînement]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;algorithme d&#039;optimisation DAPO&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;optimisation de la politique d’échantillonnage dynamique et seuillage découplé&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;OPEDD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; DAPO&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Decoupled Clip and Dynamic Sampling Policy Optimization&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A reinforcement learning algorithm that reinforces reasoning patterns and also gives rise to new modes of reasoning that facilitate correct problem-solving. One of its advantages is that it does not significantly affect the overall training time.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2503.14476   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://dapo-sia.github.io/   Source : DAPO, GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/dapo.html   Source : verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Algorithme_d%27optimisation_DAPO&amp;diff=120823</id>
		<title>Algorithme d&#039;optimisation DAPO</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Algorithme_d%27optimisation_DAPO&amp;diff=120823"/>
		<updated>2026-04-21T18:57:33Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Algorithme]]&#039;&#039;&#039; d&#039;&#039;&#039;&#039;[[apprentissage par renforcement]]&#039;&#039;&#039; qui utilise une approche découplée pour augmenter la limite supérieure de la plage de l&#039;échantillonnage dynamique. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[optimisation de la politique proximale]]&#039;&#039;&#039;, &#039;&#039;&#039;[[optimisation de la politique relative au groupe]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Complément==&lt;br /&gt;
L’échantillonnage dynamique favorise les données apportant un meilleur apprentissage. &lt;br /&gt;
&lt;br /&gt;
L&#039;un de ses avantages est qu&#039;il n&#039;affecte pas de manière significative la durée totale de l&#039;&#039;&#039;&#039;[[entraînement]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;algorithme d&#039;optimisation DAPO&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;optimisation de la politique d’échantillonnage dynamique et seuillage découplé&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;OPEDD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; DAPO&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Decoupled Clip and Dynamic Sampling Policy Optimization&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A reinforcement learning algorithm that reinforces reasoning patterns and also gives rise to new modes of reasoning that facilitate correct problem-solving. One of its advantages is that it does not significantly affect the overall training time.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2503.14476   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://dapo-sia.github.io/   Source : DAPO, GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/dapo.html   Source : verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Algorithme_d%27optimisation_DAPO&amp;diff=120822</id>
		<title>Algorithme d&#039;optimisation DAPO</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Algorithme_d%27optimisation_DAPO&amp;diff=120822"/>
		<updated>2026-04-21T18:55:55Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Algorithme]]&#039;&#039;&#039; d&#039;&#039;&#039;&#039;[[apprentissage par renforcement]]&#039;&#039;&#039; qui utilise une approche découplée pour augmenter la limite supérieure de la plage de l&#039;échantillonnage dynamique. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[optimisation de la politique proximale]]&#039;&#039;&#039;, &#039;&#039;&#039;[[optimisation de la politique relative au groupe]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Complément==&lt;br /&gt;
L’échantillonnage dynamique favorise les données apportant un meilleur apprentissage. &lt;br /&gt;
&lt;br /&gt;
L&#039;un de ses avantages est qu&#039;il n&#039;affecte pas de manière significative la durée totale de l&#039;&#039;&#039;&#039;[[entraînement]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;optimisation de la politique d’échantillonnage dynamique et seuillage découplé&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;OPEDD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;algorithme d&#039;optimisation DAPO&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; DAPO&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Decoupled Clip and Dynamic Sampling Policy Optimization&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A reinforcement learning algorithm that reinforces reasoning patterns and also gives rise to new modes of reasoning that facilitate correct problem-solving. One of its advantages is that it does not significantly affect the overall training time.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2503.14476   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://dapo-sia.github.io/   Source : DAPO, GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/dapo.html   Source : verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_%C3%A9tudiant&amp;diff=120820</id>
		<title>Modèle étudiant</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_%C3%A9tudiant&amp;diff=120820"/>
		<updated>2026-04-21T18:29:34Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Page créée avec « == Définition == En apprentissage automatique, un modèle étudiant est petit réseau neuronal entraîné par un réseau plus vaste, nommé modèle enseignant, qui le guide à reproduire ses performances grâce à un processus appelé distillation de modèles.  == Compléments == Attention à ne pas confondre avec un modèle étudiant pour la formation assistée par ordinateur destiné aux humains.  == Français == &amp;#039;&amp;#039;&amp;#039;modèle étudiant&amp;#039;&amp;#039;&amp;#039;  &amp;#039;&amp;#039;&amp;#039;mod... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En apprentissage automatique, un modèle étudiant est petit [[réseau neuronal]] entraîné par un réseau plus vaste, nommé [[modèle enseignant]], qui le guide à reproduire ses performances grâce à un processus appelé [[distillation de modèles]].&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Attention à ne pas confondre avec un modèle étudiant pour la [[formation assistée par ordinateur]] destiné aux humains.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle étudiant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle élève&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;student model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://hal.science/hal-04446898/file/Strat%C3%A9gies_de_Compression_et_d_Optimisation_des_Mod%C3%A8les_d_Intelligence_Artificielle.pdf Moez Krichen (2024) - modèle étudiant]&lt;br /&gt;
&lt;br /&gt;
[https://yassinechabli.substack.com/p/les-modeles-distilles  Yassine Chabli (2025) - modèle élève]&lt;br /&gt;
&lt;br /&gt;
[https://www.ibm.com/think/topics/knowledge-distillation IBM - student model]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_enseignant&amp;diff=120819</id>
		<title>Modèle enseignant</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_enseignant&amp;diff=120819"/>
		<updated>2026-04-21T18:24:40Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En apprentissage automatique, un modèle enseignant est un vaste [[réseau neuronal]] pré-entraîné qui guide un [[Modèle étudiant|modèle étudiant]] plus petit à reproduire ses performances grâce à un processus appelé [[distillation de modèles]].&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Attention à ne pas confondre avec un modèle d&#039;enseignement pour la [[formation assistée par ordinateur]] destiné aux humains.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle enseignant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle d&#039;apprentissage enseignant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;teacher model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;teaching model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://yassinechabli.substack.com/p/les-modeles-distilles  Yassine Chabli (2025) - modèle enseignant]&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04446898/file/Strat%C3%A9gies_de_Compression_et_d_Optimisation_des_Mod%C3%A8les_d_Intelligence_Artificielle.pdf Moez Krichen (2024) - modèle enseignant]&lt;br /&gt;
&lt;br /&gt;
[https://www.ibm.com/think/topics/knowledge-distillation IBM - teacher model]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=BLEU&amp;diff=120328</id>
		<title>BLEU</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=BLEU&amp;diff=120328"/>
		<updated>2026-04-14T19:29:06Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
BLEU (bilingual evaluation understudy) est un algorithme d’évaluation de la qualité du texte qui a été traduit automatiquement d’une langue naturelle à une autre. &lt;br /&gt;
&lt;br /&gt;
BLEU a été l’une des premières métriques à revendiquer une corrélation élevée avec les jugements humains de qualité, et reste l’une des métriques automatisées les plus populaires et les moins coûteuses.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; BLEU&#039;&#039;&#039;   &amp;lt;small&amp;gt; nom propre &amp;lt;/small&amp;gt;&lt;br /&gt;
  &lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; BLEU&#039;&#039;&#039; &#039;&#039;(bilingual evaluation understudy) &#039;&#039;&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/BLEU_(algorithme)  Source : Wikipedia ]&lt;br /&gt;
&lt;br /&gt;
[https://www.accenture.com/us-en/applied-intelligence-glossary    Source : Accenture - applied intelligence glossary ]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:ENGLISH]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_enseignant&amp;diff=120327</id>
		<title>Modèle enseignant</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_enseignant&amp;diff=120327"/>
		<updated>2026-04-14T19:22:29Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Page créée avec « == Définition == En apprentissage automatique, un modèle enseignant est un vaste réseau neuronal pré-entraîné qui guide un modèle « élève » plus petit à reproduire ses performances grâce à un processus appelé distillation de modèles.  == Compléments == Attention à ne pas confondre avec un modèle d&amp;#039;enseignement pour la formation assistée par ordinateur destiné aux humains.  == Français == &amp;#039;&amp;#039;&amp;#039;modèle enseignant&amp;#039;&amp;#039;&amp;#039;  &amp;#039;&amp;#039;&amp;#039;modèle d&amp;#039;app... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En apprentissage automatique, un modèle enseignant est un vaste [[réseau neuronal]] pré-entraîné qui guide un modèle « élève » plus petit à reproduire ses performances grâce à un processus appelé [[distillation de modèles]].&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Attention à ne pas confondre avec un modèle d&#039;enseignement pour la [[formation assistée par ordinateur]] destiné aux humains.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle enseignant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle d&#039;apprentissage enseignant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;teacher model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;teaching model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://yassinechabli.substack.com/p/les-modeles-distilles  Yassine Chabli (2025) - modèle enseignant]&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04446898/file/Strat%C3%A9gies_de_Compression_et_d_Optimisation_des_Mod%C3%A8les_d_Intelligence_Artificielle.pdf Moez Krichen (2024) - modèle enseignant]&lt;br /&gt;
&lt;br /&gt;
[https://www.ibm.com/think/topics/knowledge-distillation IBM - teacher model]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120326</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120326"/>
		<updated>2026-04-14T19:05:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même (&#039;&#039;self-play mechanism&#039;&#039;) en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèle enseignant|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120325</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120325"/>
		<updated>2026-04-14T19:03:37Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même (&#039;&#039;self-play mechanism&#039;&#039;) en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120324</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120324"/>
		<updated>2026-04-14T19:03:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même (&#039;&#039;self-play mechanism&#039;&#039;) en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Self-play_fine-tuning&amp;diff=120323</id>
		<title>Self-play fine-tuning</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Self-play_fine-tuning&amp;diff=120323"/>
		<updated>2026-04-14T19:02:27Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Self-play fine-tuning vers Peaufinage par auto-jeu&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Peaufinage par auto-jeu]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120322</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120322"/>
		<updated>2026-04-14T19:02:26Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Self-play fine-tuning vers Peaufinage par auto-jeu&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même &#039;&#039;self-play mechanism&#039;&#039; en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120321</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120321"/>
		<updated>2026-04-14T19:02:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même &#039;&#039;self-play mechanism&#039;&#039; en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120320</id>
		<title>Échantillonnage par priorité</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120320"/>
		<updated>2026-04-14T18:42:38Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe qui produit des échantillons uniques classés par ordre de confiance par le &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[expression rationnelle]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
L&#039;échantillonnage par priorité est utilisé par les [[grand modèle de langues|grands modèles de langues]], plus particulièrement pour la génération automatique de code. Il prend en charge la génération d&#039;échantillons basée sur des &#039;&#039;&#039;[[expression rationnelle|expressions régulières]]&#039;&#039;&#039; qui fournissent un processus d&#039;exploration contrôlable et structuré. Par conséquent, elle se concentre toujours sur la recherche dans la direction la plus intéressante en fonction des échantillons précédents, plutôt que de se baser sur une prédiction statistique comme pour l&#039;[[échantillonnage des p-meilleurs]] (&#039;&#039;nucleus sampling&#039;&#039;). &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;échantillonnage par priorité&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;échantillonnage prioritaire&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; priority sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration process. Therefore, it always focuses on the search forwards the most interesting direction based on previous samples, rather than determining this in advance.&lt;br /&gt;
&lt;br /&gt;
It outperforms Nucleus Sampling for any number of samples.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2402.18734   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Priority_sampling&amp;diff=120319</id>
		<title>Priority sampling</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Priority_sampling&amp;diff=120319"/>
		<updated>2026-04-14T18:42:16Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Priority sampling vers Échantillonnage par priorité&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Échantillonnage par priorité]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120318</id>
		<title>Échantillonnage par priorité</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120318"/>
		<updated>2026-04-14T18:42:16Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Priority sampling vers Échantillonnage par priorité&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe qui produit des échantillons uniques classés par ordre de confiance par le &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[expression rationnelle]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
L&#039;échantillonnage par priorité est utilisé par les [[grand modèle de langues|grands modèles de langues]], plus particulièrement pour la génération automatique de code. Il prend en charge la génération d&#039;échantillons basée sur des &#039;&#039;&#039;[[expression rationnelle|expressions régulières]]&#039;&#039;&#039; qui fournissent un processus d&#039;exploration contrôlable et structuré. Par conséquent, elle se concentre toujours sur la recherche dans la direction la plus intéressante en fonction des échantillons précédents, plutôt que de se baser sur une prédiction statistique comme pour l&#039;[[échantillonnage des p-meilleurs]] (&#039;&#039;nucleus sampling&#039;&#039;). &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;échantillonnage par priorité&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; priority sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration process. Therefore, it always focuses on the search forwards the most interesting direction based on previous samples, rather than determining this in advance.&lt;br /&gt;
&lt;br /&gt;
It outperforms Nucleus Sampling for any number of samples.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2402.18734   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=120317</id>
		<title>Échantillonnage à troncature de masse p</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=120317"/>
		<updated>2026-04-14T18:41:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Échantillonnage à troncature de masse p vers Échantillonnage des p-meilleurs&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Échantillonnage des p-meilleurs]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120316</id>
		<title>Échantillonnage des p-meilleurs</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120316"/>
		<updated>2026-04-14T18:41:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Échantillonnage à troncature de masse p vers Échantillonnage des p-meilleurs&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d&#039;un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil &#039;&#039;p&#039;&#039; défini (la &#039;&#039;masse de probabilité&#039;&#039;) également appelée &#039;&#039;noyau&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage à troncature k fixe]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]]. &lt;br /&gt;
&lt;br /&gt;
Alors que l&#039;[[échantillonnage à troncature k fixe]] limite l&#039;échantillon à un nombre &#039;&#039;k&#039;&#039; fixe de mots, l&#039;échantillonnage à troncature de masse p spécifie une probabilité cumulée &#039;&#039;p&#039;&#039; entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p. &lt;br /&gt;
&lt;br /&gt;
En pratique, l&#039;échantillonnage à troncature de masse p est préféré à l&#039;[[échantillonnage à troncature k fixe]] car il est plus adaptatif. &lt;br /&gt;
&lt;br /&gt;
Notez qu&#039;il est généralement recommandé de spécifier soit la &#039;&#039;&#039;[[température]]&#039;&#039;&#039;, soit le paramètre &#039;&#039;p&#039;&#039;, mais pas les deux.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage des p-meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Échantillonnage à troncature de masse p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage du noyau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par troncature dynamique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par seuil de probabilité cumulée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage top-p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Top-p sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Nucleus sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT: echantillonnage des p}}&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120315</id>
		<title>Échantillonnage des p-meilleurs</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120315"/>
		<updated>2026-04-14T18:40:23Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d&#039;un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil &#039;&#039;p&#039;&#039; défini (la &#039;&#039;masse de probabilité&#039;&#039;) également appelée &#039;&#039;noyau&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage à troncature k fixe]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]]. &lt;br /&gt;
&lt;br /&gt;
Alors que l&#039;[[échantillonnage à troncature k fixe]] limite l&#039;échantillon à un nombre &#039;&#039;k&#039;&#039; fixe de mots, l&#039;échantillonnage à troncature de masse p spécifie une probabilité cumulée &#039;&#039;p&#039;&#039; entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p. &lt;br /&gt;
&lt;br /&gt;
En pratique, l&#039;échantillonnage à troncature de masse p est préféré à l&#039;[[échantillonnage à troncature k fixe]] car il est plus adaptatif. &lt;br /&gt;
&lt;br /&gt;
Notez qu&#039;il est généralement recommandé de spécifier soit la &#039;&#039;&#039;[[température]]&#039;&#039;&#039;, soit le paramètre &#039;&#039;p&#039;&#039;, mais pas les deux.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage des p-meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Échantillonnage à troncature de masse p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage du noyau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par troncature dynamique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par seuil de probabilité cumulée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage top-p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Top-p sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Nucleus sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT: echantillonnage des p}}&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120314</id>
		<title>Échantillonnage par priorité</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120314"/>
		<updated>2026-04-14T18:39:01Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe qui produit des échantillons uniques classés par ordre de confiance par le &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[expression rationnelle]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
L&#039;échantillonnage par priorité est utilisé par les [[grand modèle de langues|grands modèles de langues]], plus particulièrement pour la génération automatique de code. Il prend en charge la génération d&#039;échantillons basée sur des &#039;&#039;&#039;[[expression rationnelle|expressions régulières]]&#039;&#039;&#039; qui fournissent un processus d&#039;exploration contrôlable et structuré. Par conséquent, elle se concentre toujours sur la recherche dans la direction la plus intéressante en fonction des échantillons précédents, plutôt que de se baser sur une prédiction statistique comme pour l&#039;[[échantillonnage des p-meilleurs]] (&#039;&#039;nucleus sampling&#039;&#039;). &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;échantillonnage par priorité&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; priority sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration process. Therefore, it always focuses on the search forwards the most interesting direction based on previous samples, rather than determining this in advance.&lt;br /&gt;
&lt;br /&gt;
It outperforms Nucleus Sampling for any number of samples.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2402.18734   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Expression_rationnelle&amp;diff=120313</id>
		<title>Expression rationnelle</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Expression_rationnelle&amp;diff=120313"/>
		<updated>2026-04-14T18:21:28Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Motif constitué d&#039;une chaîne de caractères spécifiant des conditions à remplir lors d&#039;une recherche effectuée dans un éditeur de texte et qui correspond à la chaîne recherchée.  &lt;br /&gt;
&lt;br /&gt;
Note -&lt;br /&gt;
Une expression rationnelle est formée de texte et de caractères spéciaux (les métacaractères). Ces derniers sont des caractères possédant une signification particulière et qui, dans un contexte d&#039;expression rationnelle, sont interprétés comme des opérateurs.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; expression rationnelle&#039;&#039;&#039;  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; expression régulière&#039;&#039;&#039;  (calque de l&#039;anglais très courant dans le domaine)&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;regular expression   &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;REGEX    &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[http://gdt.oqlf.gouv.qc.ca/ficheOqlf.aspx?Id_Fiche=8359703    Source : GDT]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119232</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119232"/>
		<updated>2026-03-31T19:35:08Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimisation d&#039;une [[Réseau autoattentif|architecture auto-attentive]] qui vise à réduire le nombre de calculs nécessaires au mécanisme d&#039;auto-attention. &lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Au lieu de comparer tous les [[segment textuel|segments textuels]] entre eux, un processus de sélection concentre l&#039;attention sur certains segments en particulier selon différentes heuristiques. Par exemple, es heuristiques exploitent une largeur de fenêtre, la position d&#039;un jeton dans une phrase, la similarité des segments, etc.&lt;br /&gt;
&lt;br /&gt;
Cette technique d&#039;optimisation a été mise de l&#039;avant par la société DeepSeek-AI. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119231</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119231"/>
		<updated>2026-03-31T19:34:53Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimisation d&#039;une [[Réseau autoattentif|architecture auto-attentive]] qui vise à réduire le nombre de calculs nécessaires au mécanisme d&#039;auto-attention. &lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Au lieu de comparer tous les [[segment textuel|segments textuels]] entre eux, un processus de sélection concentre l&#039;attention sur certains segments en particulier selon différentes heuristiques. Par exemple, es heuristiques exploitent une largeur de fenêtre, la position d&#039;un jeton dans une phrase, la similarité des segments, etc.&lt;br /&gt;
&lt;br /&gt;
Cette technique d&#039;optimisation a été mise de l&#039;avant par la société DeepSeek. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119230</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119230"/>
		<updated>2026-03-31T19:33:41Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimision d&#039;une [[Réseau autoattentif|architecture auto-attentive]] qui vise à réduire le nombre de calculs nécessaires au mécanisme d&#039;auto-attention. &lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Au lieu de comparer tous les [[segment textuel|segments textuels]] entre eux, un processus de sélection concentre l&#039;attention sur certains segments en particulier selon différentes heuristiques. Par exemple, es heuristiques exploitent une largeur de fenêtre, la position d&#039;un jeton dans une phrase, la similarité des segments, etc.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sparse_attention&amp;diff=119228</id>
		<title>Sparse attention</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sparse_attention&amp;diff=119228"/>
		<updated>2026-03-31T19:23:43Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Sparse attention vers Attention clairsemée&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Attention clairsemée]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119227</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119227"/>
		<updated>2026-03-31T19:23:43Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Sparse attention vers Attention clairsemée&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
xxxxx&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119226</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119226"/>
		<updated>2026-03-31T19:23:26Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
xxxxx&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Native_Sparse_Attention&amp;diff=119225</id>
		<title>Native Sparse Attention</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Native_Sparse_Attention&amp;diff=119225"/>
		<updated>2026-03-31T19:07:53Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Native Sparse Attention vers Sparse attention&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Sparse attention]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119224</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119224"/>
		<updated>2026-03-31T19:07:53Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Native Sparse Attention vers Sparse attention&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== EN CONSTRUCTION ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
xxxxx&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;xxxxx &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Native Sparse Attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;DSA&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
 &#039;&#039;&#039;Hardware-Aligned and Natively Trainable Sparse Attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
 Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://arxiv.org/abs/2502.11089     Sources :  arxiv]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119219</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119219"/>
		<updated>2026-03-31T19:01:46Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability Wikipedia - mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119218</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119218"/>
		<updated>2026-03-31T19:01:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability - Wikipedia mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mechanistic_interpretability&amp;diff=119217</id>
		<title>Mechanistic interpretability</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mechanistic_interpretability&amp;diff=119217"/>
		<updated>2026-03-31T19:00:30Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Mechanistic interpretability vers Interprétabilité mécaniste&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Interprétabilité mécaniste]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119216</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119216"/>
		<updated>2026-03-31T19:00:29Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Mechanistic interpretability vers Interprétabilité mécaniste&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonction.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability - Wikipedia mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119215</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119215"/>
		<updated>2026-03-31T19:00:19Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Page créée avec « ==Définition== Sous-domaine de recherche au sein de l&amp;#039;interprétabilité de l&amp;#039;IA qui vise à comprendre le fonctionnement interne des réseaux neuronaux en analysant les mécanismes présents dans leurs calculs.    == Compléments == Cette approche cherche à analyser les réseaux neuronaux de la même manière que l&amp;#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonction.  ==Français== &amp;#039;&amp;#039;&amp;#039;interpré... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonction.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability - Wikipedia mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119214</id>
		<title>Sondage d&#039;un grand modèle de langue</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119214"/>
		<updated>2026-03-31T18:51:16Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Technique utilisée en [[interprétabilité]] de l&#039;[[IA]] pour analyser les états cachés (latents) des [[Grand modèle de langues (GML)|grands modèles de langues]] ([[Grand modèle de langues (GML)|GML]]). &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
L&#039;objectif est de comprendre comment ces modèles encodent les connaissances linguistiques, sémantiques et factuelles. &lt;br /&gt;
&lt;br /&gt;
Cette méthode consiste à entraîner de petits [[Adaptation par modèle auxiliaire|modèles auxiliaires]] ou [[Classificateur|classificateurs]] légers nommés &#039;&#039;sondes&#039;&#039; sur les [[activation|vecteurs d&#039;activation]] du modèle afin de prédire des caractéristiques spécifiques (par exemple, la syntaxe ou la logique).&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un GML&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un GML&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;LLM probing&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04912112v1 Ballier et al. (2024) - sonder]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2502.00817 Lin et al. (2025) - LLM probing]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
</feed>