Notas

Bill Gates afirma que la inteligencia artificial crearía una nueva Guerra Fría

Bill Gates afirma que la inteligencia artificial crearía una nueva Guerra Fría

El cofundador de Microsoft considera que los ciberataques serán los desarrollos base con los que cada país se enfrentaría.

El miedo a que el crecimiento de la inteligencia artificial juegue en contra de la humanidad está presente. Así lo considera Bill Gates, cofundador de Microsoft, quien aseguró que es posible que con esta tecnología a la carrera armamentística se sumen los ciberataques.

En su blog personal, el filántropo hizo una reflexión sobre dichos riesgos, pero también, escribió a cerca de las oportunidades para manejar la situación y convertir la IA en un desarrollo completamente beneficioso.

“Hay un riesgo relacionado con un nivel global: una carrera armamentística por la cual la IA puede ser usada para diseñar y lanzar ciberataques contra otros países. Cada gobierno quiere tener la tecnología más poderosa para así detener ataques de sus adversarios. Este incentivo de desarrollo de no permitir a nadie encabezarlo, puede llevar a una carrera para crear nuevas y peligrosas ciberarmas. Todo podría ser peor”, aseguró.

Gates considera que la inteligencia artificial puede generar una especie de Guerra Fría en la que las potencias diseñen armas tecnológicas poderosas que puedan acabar con el mundo, sin necesidad de ser armas físicas, sino que se trata de desarrollos que puedan moverse por la red.

Un ejemplo es que una nación produzca un software capaz de “secuestrar” datos sensibles o infraestructuras importantes de sus países enemigos, causando la muerte de miles o millones de personas.

Sin embargo, no ve todo el panorama negativo, porque considera que los equipos de seguridad tienen la opción de usar la IA para “encontrar y reparar fallas de seguridad antes de que los delincuentes puedan aprovecharlas”.

“Esta es también la razón por la que no debemos tratar de evitar temporalmente que las personas implementen nuevos desarrollos en IA, como algunos han propuesto. Los ciberdelincuentes no dejan de fabricar nuevas herramientas. Tampoco lo harán las personas que quieran usar IA para diseñar armas nucleares y ataques bioterroristas. El esfuerzo por detenerlos debe continuar al mismo ritmo”, afirmó.

Otros impactos de la inteligencia artificial

Gates reconoce que los riesgos que genera la IA en el ámbito laboral es una inquietud constante.

El filántropo aseguró que algunos empleos pueden ser desplazados por la automatización, pero argumenta que este no es el primer momento de disrupción laboral que enfrentamos como sociedad.

“No creo que el impacto de la IA sea tan dramático como lo fue la Revolución Industrial, pero será tan significativo como la introducción de las computadoras personales”, dijo.

El optimismo de Gates radica en que, a lo largo de la historia, se ha demostrado que la adaptabilidad y la reinvención son las claves para combatir los cambios tecnológicos.

Para abordar los retos de la automatización, destaca que es fundamental que gobiernos y empresas brinden apoyo y capacitación a los trabajadores afectados, evitando que queden rezagados en un mercado laboral en constante evolución.

Finalmente, menciona su preocupación por la propagación de información errónea y deepfakes generados por IA.

El empresario enfatiza que la desinformación no es un fenómeno nuevo y que, a lo largo de la historia, la humanidad ha aprendido a no tomar todo al pie de la letra. Sin embargo, reconoce que la inteligencia artificial trae nuevos desafíos como la capacidad de crear videos y audios falsos de alta calidad y difíciles de diferenciar.

Para abordar esta problemática, Gates considera que se debe colaborar entre todas las partes implicadas.

En su testimonio ante el Comité del Senado de Estados Unidos, destacó la importancia de que la IA se utilice para detectar y contrarrestar deepfakes.

En este sentido, empresas como Intel ya han desarrollado detectores de deepfakes, y agencias gubernamentales como DARPA también trabajan en tecnologías para identificar manipulaciones en videos y audio.

Fuente: infobae.com

Facebook Twitter LinkedIn E-mail

Canales Asociados