La Inteligencia Artificial ( IA ) podemos decir que está más de moda que nunca, y mientras unas empresas ( Microsoft, Open AI, Google, etc … ) se apresuran a realizar avances e intentar ponerlos en el mercado cuando antes para tomar la delantera a sus competidores, otros muchos expertos emiten fundadas opiniones llamando a la prudencia, y a controlar esta nueva tecnología antes de que sea demasiado tarde.

Los que no sabemos estamos en medio de todo este barullo escuchando a unos y a otros, pero nuestro sentido común nos indica que en efecto debería de haber un cierto control previo sobre una tecnología que puede hacer mucho bien, pero también mucho daño.

Me han parecido muy importantes las declaraciones de uno de los mayores expertos en la materia, Geoffrey Hinton, que hasta hace poco era uno de los más expertos de Google en este campo. Y creo que se ha comportado de una manera muy honesta. Ha dejado su trabajo en Google, y a continuación ha expresado sus opiniones con total libertad y con mucha elegancia.

Geoffrey Hinton es un científico de la computación y un pionero en el campo del aprendizaje profundo y la inteligencia artificial (IA). En diversas entrevistas recientes ha advertido sobre los riesgos de la IA y ha hablado de la necesidad de establecer límites éticos en su desarrollo.

Uno de los principales riesgos que Hinton identificó es el hecho de que la IA puede ser utilizada para el mal. Si la IA cae en manos equivocadas, puede ser utilizada para la vigilancia, el control social y la guerra. Además, la IA puede ser utilizada para crear bots maliciosos, que pueden ser programados para realizar acciones dañinas como el spam o la difusión de noticias falsas. Hinton argumenta que se necesitan regulaciones para prevenir estos riesgos y proteger a la sociedad.

Otro riesgo que Hinton identificó es el de la dependencia de la IA. Si la IA se vuelve demasiado avanzada, puede ser difícil para las personas tomar decisiones sin ella. Y esto podría tener consecuencias negativas en la capacidad humana para la resolución de problemas, la toma de decisiones y la creatividad. Según Hinton debemos de mantener un equilibrio entre la IA y la inteligencia humana.

Algo importante que también ha expresado este buen hombre es la importancia de la transparencia en el desarrollo de la IA, y que se puedan explicar sus decisiones a los humanos. Si las personas no pueden entender como funciona la IA, no podrán confiar en ella.

También ha señalado que la IA puede tener consecuencias imprevistas. Por ejemplo, si un sistema de IA está diseñado para minimizar los costos en una empresa, puede que no tenga en cuenta los costos ambientales o sociales que generen sus decisiones.

En conclusión, Geoffrey Hinton advierte sobre los riesgos de la IA y habla de la necesidad de establecer límites éticos en su desarrollo. Los riesgos incluyen el mal uso de la IA, la dependencia humana de la IA, el desconocimiento de sus algoritmos por parte de los reguladores, la falta general de transparencia, etc ….

La IA nos puede aportar muchas cosas buenas, pero debemos de asegurarnos que esas cosas se utilizan en beneficio de la mayoría de la sociedad.

No hace mucho la Unión Europea ha propuesto una serie de medidas reguladoras que van en este sentido, pero está por ver si se llegan a aplicar o no. Ojalá que se apliquen muy pronto.

Por Amador Palacios

Reflexiones de Amador Palacios sobre temas de Actualidad Social y Tecnológica; otras opiniones diferentes a la mía son bienvenidas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESES