Ilya Sutskever, cofundador de OpenAI, ofreció perspectivas sobre el futuro de la inteligencia artificial durante la reciente conferencia anual de IA. Habló sobre el potencial transformador de la IA para volverse "impredecible", al tiempo que destacó sus desafíos e implicaciones.
Sutskever, hablando en la conferencia NeurIPS el viernes, exploró el concepto de “IA superinteligente”, que deficomo sistemas que superan las capacidades humanas en una amplia gama de tareas.
Ilya Sutskever, cofundador de OpenAI, cree que la IA superinteligente será "impredecible" https://t.co/vLHmqwQOJQ
— TechCrunch (@TechCrunch) 14 de diciembre de 2024
Predijo que dichos sistemas serían cualitativamente diferentes de la IA actual y, en algunos aspectos, irreconocibles. Según Sutskever, estos sistemas avanzados poseerán autoconciencia, cierto nivel de razonamiento y la capacidad de comprender escenarios complejos a partir de datos limitados.
“Los sistemas [superinteligentes] van a ser realmente capaces de actuar por sí mismos”, dijo, contrastándolos con la IA actual, que describió como solo “muy poco capaz de actuar por sí misma”.
Sutskever: Los modelos de IA actuales son limitados
Al recibir el premio "Test of Time" en la conferencia, Sutskever reconoció las limitaciones de los modelos de preentrenamiento como los utilizados en ChatGPT de OpenAI. Si bien los sistemas actuales demuestran capacidades notables, advirtió que la naturaleza finita de los datos de internet se está convirtiendo en un cuello de botella.
completa de @ilyasut sobre la muerte del preentrenamiento y más pic.twitter.com/PigZVvcEGB
—Diego | AI 🚀 – e/acc (@diegocabezas01) 14 de diciembre de 2024
Sutskever propuso enfoques alternativos, como sistemas de IA que generan sus propios datos o refinan sus respuestas para mejorar la precisión. Estas innovaciones, sugirió, podrían ayudar a superar las limitaciones existentes.
El cofundador de OpenAI también abordó las implicaciones éticas de la IA superinteligente, incluyendo el potencial de que dichos sistemas exijan derechos. «No es un mal resultado final si existen IA que simplemente desean coexistir con nosotros y tener derechos», comentó.
Sin embargo, enfatizó la imprevisibilidad inherente de la IA agente y autoconsciente, lo que presenta oportunidades y desafíos para los desarrolladores y reguladores.
El CEO de OpenAI, Altman, predice la disrupción y el advenimiento de la IAG
A principios de este mes, Sam Altman, director ejecutivo de OpenAI, compartió puntos de vista similares con Sutskever sobre el límite del rendimiento de la IA superinteligente. En su intervención en la Cumbre DealBook del New York Times en la ciudad de Nueva York, Altman expuso su visión de la inteligencia artificial general (IAG). Predijo que los sistemas de IA-IA capaces de realizar tareas complejas con un razonamiento similar al humano podrían hacerse realidad en 2025.
“Creo que es posible… en 2025 tendremos sistemas que analizaremos… y la gente dirá: ‘Vaya, esto cambia lo que esperaba’”, dijo Altman.
Altman comparó el impacto potencial de la IA con la invención del transistor, que revolucionó las industrias y las economías de todo el mundo. Describió un futuro en el que esta tecnología será «sorprendentemente capaz».
»Los modelos de IA se vuelven ampliamente accesibles y se utilizan en diversas industrias para distintas aplicaciones. «La IA en sí misma, el motor de razonamiento, se convertirá en un producto básico, opinó Altman, sugiriendo que su integración en la vida cotidiana será tan transformadora como los avances tecnológicos del pasado.
Durante su comparecencia, Altman destacó la amplia adopción de ChatGPT, revelando que la herramienta de IA cuenta actualmente con más de 300 millones de usuarios semanales. Reconoció los continuos debates sobre su seguridad, pero sostuvo que el enfoque iterativo de desarrollo e implementación ha sido crucial.
“hay defiquienes piensan que ChatGPT no es lo suficientemente seguro”, dijo, pero señaló que OpenAI cree que la adopción temprana, cuando hay menos riesgos, es vital para una mejora gradual.
El énfasis de Altman en la seguridad reflejó las preocupaciones de la industria sobre el desarrollo responsable de la IA. Reconoció que, si bien ChatGPT es considerado actualmente por la mayoría de la sociedad como aceptablemente seguro y robusto, el perfeccionamiento y la supervisión continuos siguen siendo prioridades.
Reflexiones sobre el liderazgo y la evolución de OpenAI
La trayectoria de liderazgo de Altman ha sido fundamental en la formación de la trayectoria de OpenAI. Cofundó la organización en 2015 como un laboratorio de investigación sin fines de lucro, con el objetivo de impulsar las tecnologías de IA en beneficio de la humanidad. Antes de unirse a OpenAI a tiempo completo en 2019, Altman fuedent de Y Combinator, una aceleradora de startups líder, de 2014 a 2019.
OpenAI pasó de ser una organización sin fines de lucro a un modelo de lucro limitado para asegurar la financiación necesaria para proyectos de IA a gran escala. Bajo el liderazgo de Altman, la empresa lanzó ChatGPT y DALL-E, que han transformado el panorama de la IA.
Sin embargo, el camino no ha estado exento de dificultades. En noviembre de 2023, Altman fue destituido de su cargo por la junta directiva de OpenAI debido a preocupaciones relacionadas con su comunicación con los miembros de la junta. La disputa, que se desarrolló públicamente, concluyó con la reincorporación de Altman menos de una semana después, ya que la junta afirmó que ahora mantenían una buena relación con el director ejecutivo.

