viernes 12 de abril de 2024 - Edición Nº1955

Latinoamérica | 7 dic 2023

México

¿Debemos temer a la inteligencia artificial?

Fue el título de la charla que se llevó a cabo en la Feria Internacional del Libro de Guadalajara, y que contó con la disertación de los investigadores Miguel Alcubierre y Carlos Coello.


"Nos asusta mucho que la inteligencia artificial pueda crear vida, crear un ser vivo que sea capaz de pensar y ponerse en nuestra contra", señaló Miguel Alcubierre, investigador del Instituto de Ciencias Nucleares.

En la charla ¿Debemos temer a la inteligencia artificial?, en el marco de la Feria Internacional del Libro de Guadalajara, acompañado de Carlos Coello, investigador del Centro de Investigación y de Estudios Avanzados, del Instituto Politécnico Nacional, comentó que esta idea es muy vieja. Viene desde el Gólem de la tradición judía, un ser hecho de barro y polvo, un sirviente que también pueda atacar a sus creadores.

La inteligencia artificial (IA), ya como un tema de investigación científica, aparece en el siglo XX, precisó Alcubierre. “Quien empieza a estudiarla es Alan Turing, el padre de la computación moderna. Él diseña una máquina que llamaba computadora universal, parecida a los ordenadores modernos, y se imagina de lo que serán capaces”.

Durante la Segunda Guerra Mundial, añade, crea una primera computadora muy primitiva que se dedica a tratar de descifrar los códigos de los nazis y lo logra. “En gran medida Turing ayuda muchísimo a la victoria de los aliados”.

Pero Turing también pensó en la inteligencia artificial, explica. “Se preguntó: ¿puede pensar una máquina?, ¿existirán computadoras digitales que tengan un buen desempeño en el juego de la imitación?

¿Son las inteligencias artificiales conscientes?, cuestionó Alcubierre. Y agregó que “no son conscientes, son máquinas, pero no dejan de ser enormemente impresionantes y muy útiles. Yo creo que van a cambiar la manera en que interactuamos con las computadoras en un futuro muy cercano”.

Los sistemas de inteligencia artificial “son una nueva herramienta a la que tenemos que acostumbrarnos, debemos legislar a su alrededor con el fin de evitar que se haga mal uso de ellos, pero finalmente quienes las utilizamos somos nosotros. Vamos a ser los humanos los que determinemos si se usan para bien o para mal”, concluyó.

En su intervención, Carlos Coello, indicó que en computación lo que intentamos es replicar procedimientos de los humanos con algoritmos hechos por humanos. Todo está acotado a lo que nosotros pedimos que haga. “¿Puede tener consecuencias negativas? Sí, si se hace un mal uso de estas tecnologías. ¿Hay empleos en riesgo? Sí, trabajos que son muy rutinarios seguramente van a desparecer”.

Es indudable, mencionó, que muchos de estos algoritmos, al menos en los países desarrollados, van a sustituir a un gran número de personas. “Y van a cambiar todos los paradigmas, la forma de educar a los jóvenes, la manera de hacer investigación”.

Hoy en día la diferencia fundamental es que la IA se basa en enormes cantidades de datos, y la mayoría de estos algoritmos no son de dominio público, consideró. “No conocemos realmente qué algoritmos hay detrás de ChatGPT. Sabemos que fue entrenada con aprendizaje profundo, usando una supercomputadora de Microsoft, también que la información va hasta 2021 y que ChatGPT no es capaz de crear nada. Simplemente combina información que ya existe”.

En realidad, el temor tiene que ver con el desconocimiento y no saber qué alcances tiene la tecnología, destacó. “A ésta sí puede dársele un mal uso, por supuesto, seguramente pasará en su momento. Pero está diseñada para ayudarnos, no para perjudicarnos. Y es responsabilidad de nosotros, como sociedad, hacer un buen uso”.

Uno de los temas más interesantes en computación es el que tiene que ver con la ética y la IA: la invasión de la privacidad, reflexionó. “Estas tecnologías se basan en gran medida en invadir nuestra privacidad. Y eso aparentemente nadie lo cuestiona. No parece importarles mucho a los jóvenes, es algo que hemos aceptado como sociedad. El antídoto para que estos algoritmos no puedan robar nuestros datos es no tener esa información tan pública”.

Esta es una tecnología que llegó para quedarse, expuso. “No se va a ir y tenemos que aceptarla, tratar de entenderla. Saber al menos lo básico de algunas de estas herramientas, porque en algún momento se va a volver muy importante, va a ser fundamental para muchas tareas”.

Fuente: UNAM

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias

NEWSLETTER

Suscríbase a nuestro boletín de noticias