Estos son los cinco principales peligros en la era de la IA y ChatGPT

Estos son los cinco principales peligros en la era de la IA y ChatGPT

La IA generativa como ChatGPT podría eliminar hasta 300 millones de puestos de trabajo en todo el mundo.

Durante años, hemos estado interactuando silenciosamente con la Inteligencia Artificial (IA) a través de asistentes de voz, redes sociales, algoritmos de búsqueda, reconocimiento facial en nuestros teléfonos y mucho más. Pero la IA pasó a primer plano con la llegada de la IA generativa como ChatGPT.

De repente, empezamos a ser testigos de la IA a un nivel visceral, y nos sorprendió lo que vimos. La Inteligencia Artificial ya no se siente como «algo que llegará algún día». Ahora es «algo que está aquí, y listo para cambiar el mundo«.

Pues bien, hay algo que no debería sorprenderte: el cambio conlleva riesgos. Para los consejos de administración y los equipos directivos de las empresas que aún no han desarrollado un plan de gestión de riesgos de la IA, ChatGPT debería ser una impresionante llamada de atención. Si eso te incluye, sigue leyendo.

En este artículo, definiré a grandes rasgos los riesgos que conlleva la implantación generalizada de la IA. A continuación, publicaré un segundo artículo que ofrece algunas soluciones reales para cada una de estas áreas de riesgo de la IA.

Aquí están los cinco principales riesgos de la IA que los líderes empresariales deben tener en cuenta:

1. Riesgo de interrupción

La inteligencia artificial perturbará los modelos de negocio y los mercados existentes como ninguna otra tecnología lo ha hecho antes. El ejemplo dolorosamente obvio de ello es el propio ChatGPT. ¿Quién iba a pensar que la posición de Google como campeón indiscutible de las búsquedas podría verse desafiada de forma tan repentina y precaria?

Parece que hace sólo uno o dos años, la mayoría de la gente pensaba que la IA perturbaría las industrias que dependen de mano de obra relativamente poco cualificada, como el transporte por carretera y el servicio al cliente, o en el peor de los casos, el trabajo altamente metódico como el comercio financiero y la radiología. Ahora entendemos que las industrias creativas como los medios de comunicación y la publicidad están en peligro, al igual que las profesiones de servicios personalizados como la enseñanza y el asesoramiento financiero, e incluso segmentos de cualificación de élite como la I+D farmacéutica y la informática.

Según un informe de Goldman Sachs de marzo de 2023, la IA generativa como ChatGPT podría eliminar hasta 300 millones de puestos de trabajo en todo el mundo, incluido el 19% de los empleos existentes en Estados Unidos. Sea cual sea su negocio o profesión, es casi seguro que su empresa se enfrentará a un cambio masivo en los próximos años. A diferencia de anteriores disrupciones tecnológicas, esta vez lo que está en juego puede ser realmente «de vida o muerte». (Véase «La amenaza de la IA: el ganador se lo lleva todo»).

2. Riesgos de ciberseguridad

Mantener los datos, sistemas y personal de la organización a salvo de hackers y otros saboteadores ya era un problema creciente para los líderes empresariales. El número de ataques aumentó un 38% en 2022 hasta alcanzar una media de más de mil ataques por organización a la semana, y el coste medio por violación de datos se disparó a más de cuatro millones de dólares.

La Inteligencia Artificial agravará exponencialmente este reto. Basta con imaginar cuánto más poderosos serán los ataques de phishing, por ejemplo, cuando una IA tan sofisticada como ChatGPT envíe correos electrónicos al personal que parezcan provenir del jefe, que utilicen información que solo el jefe conocería normalmente y que incluso utilicen el estilo de escritura del jefe.

El uso de tecnología deepfake como los clones de voz en las estafas cibernéticas se han reportado desde al menos 2019. Con la IA mejorando y diversificándose cada día, el problema de la gestión del riesgo cibernético solo empeorará a partir de ahora.

Si crees que los firewalls y otras tecnologías de ciberdefensa actuales te salvarán, piénsalo de nuevo. La IA ayudará a los malos actores a encontrar los eslabones más débiles de su defensa y luego trabajará sin descanso hasta encontrar la forma de entrar.

3. Riesgo para la reputación

Cuando ChatGPT salió por primera vez a la luz pública, los ejecutivos de Google citaron inicialmente el «riesgo para la reputación» como razón por la que no lanzarían inmediatamente una IA rival (pero se retractaron y anunciaron Bard sólo unos días después). Los posteriores errores y vergüenzas de Bing y otros en el panorama de la IA generativa demostraron que las preocupaciones iniciales de Google estaban bien fundadas.

El público nos observa. Cuando su IA se comporta de una forma que no concuerda con sus valores, puede provocar un desastre de relaciones públicas. Algunas formas incipientes de IA ya se han comportado de forma racista y misógina, han provocado detenciones injustas y han amplificado los prejuicios en la contratación de personal.

A veces, la IA puede arruinar sus relaciones con los clientes. Según Forrester, el 75% de los consumidores se sienten decepcionados por los chatbots de atención al cliente, y el 30% se van a otro sitio después de una mala interacción de atención al cliente basada en IA. La IA es todavía muy joven y propensa a cometer errores. Sin embargo, a pesar de lo mucho que está en juego, cabe esperar que muchas organizaciones empresariales desplieguen la IA sin comprender plenamente los riesgos que conlleva para su reputación.

4. Riesgos jurídicos

El gobierno federal se está preparando para abordar los retos sociales asociados al auge de la IA. En 2022, la administración Biden presentó su proyecto de Carta de Derechos de la IA para proteger la privacidad y las libertades civiles. En 2023, el Instituto Nacional de Estándares y Tecnología publicó su Marco de Gestión de Riesgos de la IA para ayudar a los consejos de administración de las empresas y otros líderes organizativos a abordar los riesgos de la IA. La Ley de Rendición de Cuentas Algorítmica de 2022, aún solo un proyecto de ley, tiene como objetivo establecer la transparencia en una amplia gama de mecanismos automatizados de toma de decisiones. Y eso es solo legislación federal. No menos de 17 estados introdujeron legislación para gobernar la IA solo en 2022, apuntando al reconocimiento facial, Sesgo de contratación, Algoritmos adictivos y otros casos de uso de IA. Para las multinacionales, la Ley de Inteligencia Artificial propuesta por la UE pretende prohibir o moderar el reconocimiento biométrico, la manipulación psicológica, la explotación de grupos vulnerables y la puntuación de crédito social.

Se avecinan nuevas normativas, probablemente en 2023. Y el riesgo para su empresa va más allá del cumplimiento de la misma. Si algo sale mal con un producto o servicio que utiliza IA, ¿quién será el responsable? ¿El proveedor del producto o servicio? ¿El desarrollador de IA? ¿El proveedor de datos? ¿O serás tú? Como mínimo, es probable que tenga que proporcionar transparencia sobre la forma en que su IA toma sus decisiones, para seguir cumpliendo las disposiciones sobre transparencia de la nueva legislación.

5. Riesgo operativo

La última área de riesgo de la IA es quizás la más obvia, pero en cierto modo la más peligrosa. ¿Qué ocurre cuando su personal hace un mal uso accidental de ChatGPT, como hicieron recientemente los empleados de Samsung, con la consiguiente pérdida de secretos comerciales? ¿Qué ocurre cuando la IA no funciona como se esperaba? El impacto negativo de adoptar la IA demasiado rápido podría ser considerable.

ChatGPT es el ejemplo más célebre de IA avanzada en la actualidad, y el mundo entero lo está probando e informando sobre sus deficiencias todos los días. Pero la IA utilizada en tu empresa puede no gozar de ese beneficio. ¿Qué ocurre cuando la IA te dice que debes apostar por un proveedor, material o producto concreto, pero se equivoca?

El infame Watson de IBM propuso tratamientos incorrectos y peligrosos a pacientes de cáncer. Tyndaris Investments, con sede en el Reino Unido, fue demandada por el magnate hongkonés Li Kin Kan después de que la IA de su fondo de cobertura hiciera perder a este último hasta veinte millones de dólares al día. ¿Y quién puede olvidar cuando un Tesla fuera de control mató a un peatón? Este es el ámbito del miembro del consejo de administración: ser consciente de este tipo de riesgo operativo y gobernarlo.

forbes.es

Originally posted 2023-06-26 21:07:22.

Alejandro Villegas
ADMINISTRATOR
PERFIL

Posts Carousel

Escribir un Comentario

Su dirección de correo no va a ser publicada. Llenar la información solicitada con *

Últimos Post

Top Authors

Más Comentado

Video Promovido

RADIO EN VIVO

Originally posted 2023-06-26 21:07:22.