Superinteligencia artificial está cada vez más cerca

El último en predecir que en un futuro muy próximo la Inteligencia Artificial superará a cualquier ser humano ha sido el magnate Elon Musk. Él y otros expertos están de acuerdo en que es necesario regular esta tecnología

EFE-AFP-REDACCIÓN

En cinco o seis años habrá surgido una “superinteligencia” artificial, capaz de superar a cualquier ser humano en cualquier disciplina, predijo esta semana Elon Musk, una de las voces más respetadas en el ámbito tecnológico.

El magnate es el último en sumarse a la corriente de pensamiento que sostiene que al ritmo que evoluciona el la Inteligencia Artificial, no pasarán muchos años hasta alcanzar un nivel de desarrollo inaudito que a su vez genera cuestionamientos sobre el futuro y los peligros que conlleva.

Para Musk esta superinteligencia no significa necesariamente que sea más inteligente que la suma de todos los humanos.

Las afirmaciones del dueño de Tesla, Twitter y de la recién creada compañía de IA, XAI, se produjeron durante un encuentro virtual realizado a través de la función “Spaces” de la red social del pajarito. De la conversación sobre el futuro y los peligros de la inteligencia artificial también participaron el representante demócrata por California Ro Khanna y el representante republicano por Wisconsin Mike Gallagher.

REGULACIÓN. Los tres estuvieron de acuerdo en la importancia de regular el desarrollo de las tecnologías de IA, aunque con diferencias en el enfoque.

Khanna abogó por la creación de una agencia al estilo de la Administración de Alimentos y Fármacos (FDA), con especialistas que aseguran la seguridad de los productos en el mercado.

Gallagher, sin embargo, consideró que una agencia de este tipo no podría ser lo suficientemente dinámica para mantenerse al tanto de todas las innovaciones con rapidez.

Musk ha avisado en varias ocasiones del riesgo que supone para la humanidad el desarrollo sin supervisión de la IA, pidiendo incluso una pausa a la creación de nuevos programas para entender mejor sus posibles efectos. En la actualidad diversos organismos de control en Estados Unidos y Europa realizan pesquisas sobre posibles brechas de seguridad, violación de datos personales, intelectuales, entre otros a algunos de los populares programas de IA.

BENEFICIOS. En el debate sobre la “superinteligencia artificial”, Greg Brockman cofundador y presidente de Open IA, ofreció una perspectiva interesante en una charla auspiciada recientemente por Goldman Sach.

El emprendedor primero destacó una de las ventajas de tener este tipo de tecnología a disposición.

“Si quieres trabajar duro en un problema específico, tienes que reclutar a todas estas personas. Tienes que alinearlos. La gente tiene que dormir. Tienen todos estos incentivos competitivos”, apúnto, y agregó “si pudieras tener sistemas que se centraran por completo en resolver problemas, piensa en las cosas asombrosas que podrían lograr si lo haces bien”.

Por ello, consideró que “es hora de comenzar a pensar realmente en la conclusión lógica, no solo de la inteligencia general, sino de lo que llamamos “súperinteligencia”, algo que es casi tan capaz como nuestras organizaciones más capaces”, destacó Brockman, quien al igual que Musk, Khanna y Gallagher, está de acuerdo en que el sector debe ser regulado.

“Será un nuevo estándar que tendremos que alcanzar. Ese estándar continuó el presiente de Open IA, se puede lograr a través de una cooperación internacional más amplia. Tal cooperación ya existe en otras industrias”, aseguró.

La propuesta de este emprendedor tecnológico se acerca a la de Khanna, solo que en vez de la FDA, cree que la Agencia Internacional de Energía Atómica es un ejemplo del tipo de organización que realmente puede tener una idea del trabajo y entrenamiento que se necesitan.

COOPERACIÓN. También consideró indispensable el involucramiento y cooperación entre este tipo de agencias y los gobiernos en la construcción de la IA.

“Empresas como nosotros y otras que están a la vanguardia en estos campos y gastan muchos miles de millones de dólares en esta tecnología, ese es el lugar que debemos coordinar”, manifestó. “Necesitamos unirnos y elevarnos más allá de nosotros mismos y realmente pensar en el impacto que esto puede tener tanto en el sentido sorprendente como también, si no lo hacemos bien, en el sentido negativo”, advirtió a continuación.

Brockman consideró que aún cuando en el presente no estén disponibles productos, funciones y capacidades desprendidas de la IA, estas deben regularse inmediatamente. “No estamos pensando en los modelos de código abierto de hoy. Ni siquiera necesariamente los GPT4 de hoy”, explicó. “Avanzas funciones de múltiples pasos; esos son los modelos en los que realmente necesitamos pensar mucho. Y deberíamos pensar mucho en ellos antes de crearlos y poner en marcha este marco de políticas”.

Regulación china

China aprobó una normativa para regular los servicios de IA generativa que deberá respetar “los valores socialistas fundamentales” y la “moral social y la ética profesional” y tendrán prohibido “generar contenidos que atenten contra la seguridad nacional, la unidad territorial, la estabilidad social o los derechos e intereses legítimos de otras personas”.

UH