this post was submitted on 17 Jun 2024
22 points (95.8% liked)

France

2203 readers
68 users here now

La France et les Français

Communautés principales

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

🔍 Recherche

FAQ, guides et ressources :

Actualité internationale

Loisirs:

Vie Pratique:

Société:

Villes/Régions

Pays:

Humour:

Fedivers:

Règles

  1. Multi-lingual community: posts in other language than French are allowed. 🚀

  2. Tous les francophones sont bienvenus. 🐌

  3. Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖

  4. Xénophobie, racisme et autre forme de discrimination sont interdits.🌈

  5. Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔

  6. Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴

  7. Le contenu doit être en rapport avec la France ou la population française.🇨🇵


Communauté de secours:

founded 1 year ago
MODERATORS
 

Pour référence : https://etudiant.lefigaro.fr/article/bac-philo-2023-qui-de-raphael-enthoven-ou-chatgpt-redige-la-meilleure-copie_a694c010-0a09-11ee-bd34-f2c2eadd1748/

(désolé pour le sponsor de la vidéo qui apparaît dans l'aperçu généré par lemmy)

you are viewing a single comment's thread
view the rest of the comments
[–] keepthepace@slrpnk.net 1 points 5 months ago (1 children)

Oui, Le Cun a beaucoup sous-estimé les LLMs de type GPT dans le passé. Et il est en bonne compagnie là dessus hein, ils ont surpris tout le monde par leurs capacités émergentes. C'est pour ça que je trouve que la thèse de Le Cun bien que défendable ne devrait pas l'être avec un ton si péremptoire.

Même l'histoire des engrenages, bien prompté, GPT4 y arrive, mais c'est bien plus difficile pour lui que des tâches normalement plus ardues. Il met le doigt sur une faiblesse intéressante, que lui argue bloquante, qui ne l'est peut être pas, mais il est très raisonnable de penser que d'explorer cette faiblesse et de la compenser pourrait booster les compétences de ces modèles.

Et il est intéressant de comprendre également pourquoi le raisonnement de Le Cun est faux dans la vidéo présentée: il a peut-être raison sur le fait que probablement aucun texte ne dit explicitement qu'un objet posé sur une table suit la table, mais beaucoup de textes le supposent implicitement et GPT-4 arrive à apprendre ces informations implicites.

[–] NeuralNerd@lemmy.world 1 points 5 months ago (1 children)

beaucoup de textes le supposent implicitement et GPT-4 arrive à apprendre ces informations implicites.

Oui, et on peut facilement imaginer qu'en entraînant des modèles similaires en plus sur des vidéos ils pourraient acquérir un bon modèle du monde physique.

[–] keepthepace@slrpnk.net 1 points 5 months ago

Ouaip.

Le pari de LeCun est de faire une architecture où cet apprentissage serait explicite