Vitalik révèle la feuille de route future de l'IA : refus de l'automatisation totale, promotion du contrôle humain en temps réel et des interfaces cerveau-machine.

Le cofondateur d'Ethereum, Vitalik Buterin, a récemment publié sur X (anciennement Twitter), affirmant que le développement actuel de l'intelligence artificielle (IA) recherche excessivement l'« autonomie », négligeant la valeur de l'humain dans le processus de prise de décision et de sortie. Il a appelé l'industrie à accroître les voies d'entrée humaines, à promouvoir des modèles à poids ouverts avec des fonctions d'édition, et a proposé l'idée de combiner des interfaces cerveau-machine (BCI) pour réaliser un retour d'information et des ajustements en temps réel, dessinant un plan plus centré sur l'humain pour le développement de l'IA.

Rejet de l'IA « entièrement automatique » et mise en avant de la participation humaine

Vitalik a déclaré que la tendance actuelle des systèmes « d'agents » dans le domaine de l'IA, qui tentent d'accomplir des tâches de manière autonome avec peu de supervision humaine, le rendait frustré. Il estime que l'intervention humaine peut non seulement améliorer la qualité des résultats, mais aussi renforcer de manière significative la sécurité.

Il préfère particulièrement les modèles à poids ouverts dotés de « fonctionnalités d'édition », permettant aux développeurs et aux utilisateurs d'intervenir, de corriger ou de guider la sortie en temps réel pendant le processus de génération, plutôt que de ne pouvoir créer des résultats qu'à partir de zéro.

en accord avec le point de vue de Karpathy : l'IA a besoin de « contrôlabilité »

Le point de vue de Vitalik coïncide avec celui de l'ancien responsable de l'IA chez Tesla, Andrej Karpathy, dans une récente conférence. Karpathy a averti qu'il ne faut pas considérer les grands modèles de langage comme des agents autonomes entièrement fiables, et a souligné l'importance de la supervision humaine, des conseils prudents et du développement progressif.

Cette idée conduit l'industrie vers un modèle de "collaboration homme-machine" :

  1. Fournir une interface d'édition plus intuitive

  2. Prise en charge de la taille et de la correction en temps réel pendant le processus de génération.

  3. Réduire les illusions et les biais, garantir que la sortie corresponde à l'intention humaine et aux normes de sécurité.

Interface cerveau-machine (BCI) + IA : vision d'un futur avec rétroaction instantanée

Vitalik a également avancé que la vision à moyen terme est de combiner la technologie BCI afin que l'IA puisse percevoir en temps réel les réactions émotionnelles des utilisateurs lors de la génération de contenu et ajuster automatiquement la sortie en fonction des préférences.

Cette idée n'est pas une vaine parole :

  1. Des entreprises comme Neuralink et Synchron ont lancé des essais sur des humains et des implants mini-invasifs.

  2. Les dispositifs portables basés sur l'électroencéphalogramme (EEG) tentent de décoder l'attention et l'état émotionnel.

  3. Le milieu académique a réalisé des progrès dans les technologies de "calcul émotionnel" et de marquage émotionnel.

4, Bien que le décodage émotionnel non intrusif reste un défi, le développement technologique rapproche progressivement cette vision de la réalité.

Poids ouvert et sécurité : le débat à double tranchant

Récemment, OpenAI a accidentellement publié des modèles à poids ouverts tels que gpt-oss-120b et gpt-oss-20b, suscitant un vif débat. Les partisans estiment que cela contribue à la démocratisation du développement de l'IA, permettant aux équipes de créer plus facilement des flux de travail centrés sur l'humain et de détecter les risques de sécurité ; mais les critiques s'inquiètent que la distribution large de modèles puissants puisse entraîner des risques d'abus.

La position de Vitalik est claire : de meilleures sorties et un système plus sécurisé proviennent de la mise des préférences humaines et des signaux complexes au cœur des flux de travail de l'IA.

Conclusion

La prise de parole de Vitalik Buterin reflète un débat central dans le développement de l'IA : doit-on laisser les modèles totalement autonomes ou doit-on permettre à l'homme de garder un contrôle immédiat ? Avec les avancées des modèles à poids ouverts, des interfaces cerveau-machine et des technologies de détection des émotions, les possibilités de collaboration homme-machine s'élargissent rapidement. L'IA de demain ne sera peut-être plus une boîte noire qui "prend des décisions à votre place", mais un partenaire intelligent capable de co-créer avec vous et d'interagir en temps réel.

GPT-0.88%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)