El cofundador de Ethereum, Vitalik Buterin, publicó recientemente en X (anteriormente Twitter), señalando que el desarrollo actual de la inteligencia artificial (IA) persigue en exceso la "autonomía", ignorando el valor de la humanidad en el proceso de toma de decisiones y outputs. Hizo un llamado a la industria para aumentar las vías de entrada humana, promoviendo modelos de pesos abiertos con funciones de edición, y propuso la idea de combinar interfaces cerebro-máquina (BCI) para lograr retroalimentación y ajustes en tiempo real, trazando un plano más centrado en el ser humano para el desarrollo de la IA.
Rechazo de la IA «totalmente automática» y énfasis en la participación humana
Vitalik expresó que la tendencia actual en el campo de la IA de los sistemas "agentes", que intentan completar tareas de manera autónoma con muy poca supervisión humana, le resulta frustrante. Él cree que la entrada humana no solo puede mejorar la calidad de la salida, sino que también puede aumentar significativamente la seguridad.
Él prefiere especialmente los modelos de peso abierto que cuentan con "función de edición", que permiten a los desarrolladores y usuarios intervenir, corregir o guiar la salida en el proceso de generación, en lugar de tener que crear resultados desde cero.
en sintonía con la perspectiva de Karpathy: la IA necesita "controlabilidad"
La opinión de Vitalik coincide con la reciente charla de Andrej Karpathy, ex responsable de IA en Tesla. Karpathy advirtió que no se deben considerar los modelos de lenguaje grandes como agentes autónomos completamente fiables, y subrayó la importancia de la supervisión humana, las indicaciones cautelosas y el desarrollo progresivo.
Esta idea está llevando a la industria a un modelo de "colaboración humano-máquina":
Proporcionar una interfaz de edición más intuitiva
Soporte para recortes y correcciones en tiempo real durante el proceso de generación
Reducir ilusiones y sesgos, asegurando que la salida cumpla con las intenciones humanas y los estándares de seguridad.
Interfaz cerebro-computadora (BCI) + IA: visión futura de retroalimentación en tiempo real
Vitalik propuso aún más que la visión a medio plazo es combinar la tecnología BCI, para que la IA pueda percibir en tiempo real las reacciones emocionales de los usuarios al generar contenido y ajustar automáticamente la salida según sus preferencias.
Esta idea no es una mera charla:
Empresas como Neuralink, Synchron, etc. han iniciado ensayos clínicos en humanos y procedimientos de implantación mínimamente invasivos.
Dispositivos portátiles basados en electroencefalografía (EEG) están intentando decodificar el estado de atención y emoción.
La academia ha logrado avances en la "computación emocional" y en la tecnología de etiquetado emocional.
Aunque la decodificación emocional no invasiva todavía presenta desafíos, el desarrollo tecnológico está acercando gradualmente esta visión a la realidad.
Pesos abiertos y seguridad: el debate de la espada de doble filo
Recientemente, OpenAI lanzó inesperadamente modelos de pesos abiertos como gpt-oss-120b y gpt-oss-20b, lo que ha generado un gran debate. Los partidarios creen que esto ayuda a democratizar el desarrollo de la IA, permitiendo que los equipos establezcan flujos de trabajo centrados en las personas y detecten riesgos de seguridad más fácilmente; pero los críticos temen que la amplia distribución de modelos poderosos pueda conllevar riesgos de abuso.
La posición de Vitalik es clara: una mejor producción y un sistema más seguro provienen de poner las preferencias humanas y señales complejas en el núcleo del flujo de trabajo de IA.
Conclusión
La declaración de Vitalik Buterin refleja un debate central en el desarrollo de la IA: ¿deberíamos permitir que los modelos sean completamente autónomos o mantener el control humano en tiempo real? A medida que avanzan los modelos de pesos abiertos, las interfaces cerebro-máquina y las tecnologías de detección emocional, la posibilidad de colaboración humano-máquina se está expandiendo rápidamente. La IA del futuro podría no ser una caja negra que "toma decisiones por ti", sino un compañero inteligente que puede co-crear contigo e interactuar en tiempo real.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Vitalik revela el plan futuro de la IA: rechaza la automatización total, aboga por el control humano en tiempo real y las interfaces cerebro-máquina.
El cofundador de Ethereum, Vitalik Buterin, publicó recientemente en X (anteriormente Twitter), señalando que el desarrollo actual de la inteligencia artificial (IA) persigue en exceso la "autonomía", ignorando el valor de la humanidad en el proceso de toma de decisiones y outputs. Hizo un llamado a la industria para aumentar las vías de entrada humana, promoviendo modelos de pesos abiertos con funciones de edición, y propuso la idea de combinar interfaces cerebro-máquina (BCI) para lograr retroalimentación y ajustes en tiempo real, trazando un plano más centrado en el ser humano para el desarrollo de la IA.
Rechazo de la IA «totalmente automática» y énfasis en la participación humana
Vitalik expresó que la tendencia actual en el campo de la IA de los sistemas "agentes", que intentan completar tareas de manera autónoma con muy poca supervisión humana, le resulta frustrante. Él cree que la entrada humana no solo puede mejorar la calidad de la salida, sino que también puede aumentar significativamente la seguridad.
Él prefiere especialmente los modelos de peso abierto que cuentan con "función de edición", que permiten a los desarrolladores y usuarios intervenir, corregir o guiar la salida en el proceso de generación, en lugar de tener que crear resultados desde cero.
en sintonía con la perspectiva de Karpathy: la IA necesita "controlabilidad"
La opinión de Vitalik coincide con la reciente charla de Andrej Karpathy, ex responsable de IA en Tesla. Karpathy advirtió que no se deben considerar los modelos de lenguaje grandes como agentes autónomos completamente fiables, y subrayó la importancia de la supervisión humana, las indicaciones cautelosas y el desarrollo progresivo.
Esta idea está llevando a la industria a un modelo de "colaboración humano-máquina":
Proporcionar una interfaz de edición más intuitiva
Soporte para recortes y correcciones en tiempo real durante el proceso de generación
Reducir ilusiones y sesgos, asegurando que la salida cumpla con las intenciones humanas y los estándares de seguridad.
Interfaz cerebro-computadora (BCI) + IA: visión futura de retroalimentación en tiempo real
Vitalik propuso aún más que la visión a medio plazo es combinar la tecnología BCI, para que la IA pueda percibir en tiempo real las reacciones emocionales de los usuarios al generar contenido y ajustar automáticamente la salida según sus preferencias.
Esta idea no es una mera charla:
Empresas como Neuralink, Synchron, etc. han iniciado ensayos clínicos en humanos y procedimientos de implantación mínimamente invasivos.
Dispositivos portátiles basados en electroencefalografía (EEG) están intentando decodificar el estado de atención y emoción.
La academia ha logrado avances en la "computación emocional" y en la tecnología de etiquetado emocional.
Aunque la decodificación emocional no invasiva todavía presenta desafíos, el desarrollo tecnológico está acercando gradualmente esta visión a la realidad.
Pesos abiertos y seguridad: el debate de la espada de doble filo
Recientemente, OpenAI lanzó inesperadamente modelos de pesos abiertos como gpt-oss-120b y gpt-oss-20b, lo que ha generado un gran debate. Los partidarios creen que esto ayuda a democratizar el desarrollo de la IA, permitiendo que los equipos establezcan flujos de trabajo centrados en las personas y detecten riesgos de seguridad más fácilmente; pero los críticos temen que la amplia distribución de modelos poderosos pueda conllevar riesgos de abuso.
La posición de Vitalik es clara: una mejor producción y un sistema más seguro provienen de poner las preferencias humanas y señales complejas en el núcleo del flujo de trabajo de IA.
Conclusión
La declaración de Vitalik Buterin refleja un debate central en el desarrollo de la IA: ¿deberíamos permitir que los modelos sean completamente autónomos o mantener el control humano en tiempo real? A medida que avanzan los modelos de pesos abiertos, las interfaces cerebro-máquina y las tecnologías de detección emocional, la posibilidad de colaboración humano-máquina se está expandiendo rápidamente. La IA del futuro podría no ser una caja negra que "toma decisiones por ti", sino un compañero inteligente que puede co-crear contigo e interactuar en tiempo real.