El 73% de las organizaciones adoptan la IA de última generación, pero muchas menos evalúan los riesgos – guía en línea


Suscríbase a nuestros boletines diarios y semanales para recibir las últimas actualizaciones y contenido exclusivo sobre la cobertura de inteligencia artificial líder en la industria. Más información


Una nueva encuesta de PwC de 1.001 ejecutivos con sede en EE. UU. en puestos comerciales y tecnológicos encuentra que el 73% de los encuestados utilizan actualmente o planean utilizar IA generativa en sus organizaciones.

Sin embargo, sólo el 58% de los encuestados han comenzado a evaluar los riesgos de la IA. Para PwCLa IA responsable se relaciona con el valor, la seguridad y la confianza y debería ser parte de los procesos de gestión de riesgos de una empresa.

Jenn Kosar, líder de garantía de inteligencia artificial en EE. UU. en PwC, dijo: VentureBeat Hace seis meses, sería aceptable que las empresas comenzaran a implementar algunos proyectos de IA sin pensar en estrategias de IA responsables, pero ya no.

“Estamos más avanzados en el ciclo, por lo que ahora es el momento de desarrollar una IA responsable”, afirmó Kosar. “Los proyectos anteriores eran internos y se limitaban a equipos pequeños, pero ahora estamos viendo una adopción a gran escala de la IA generativa”.

Agregó que los proyectos piloto de IA en realidad informan mucha estrategia de IA responsable porque las empresas podrán determinar qué funciona mejor con sus equipos y cómo usan los sistemas de IA.

La inteligencia artificial responsable y la evaluación de riesgos han pasado a primer plano en el ciclo de noticias en los últimos días después de que xAI de Elon Musk implementara un nuevo servicio de generación de imágenes a través de su modelo Grok-2 en la plataforma social X (anteriormente Twitter). Los primeros usuarios informan que el modelo parece no tener restricciones, lo que permite a los usuarios crear todo tipo de contenido polémico e incendiario, incluidas falsificaciones profundas de políticos y estrellas del pop cometiendo actos de violencia o en situaciones abiertamente sexuales.

Prioridades sobre las que construir

A los encuestados se les preguntó sobre 11 capacidades que PwC identificó como “un subconjunto de capacidades que las organizaciones parecen priorizar con mayor frecuencia en la actualidad”. Estas incluyen:

  1. Mejora de las habilidades
  2. Incorporación de especialistas en riesgos de IA
  3. Entrenamiento periódico
  4. Privacidad de datos
  5. Gobernanza de datos
  6. Ciberseguridad
  7. Prueba de modelos
  8. Gestión de modelos
  9. Gestión de riesgos de terceros
  10. Software especializado para la gestión de riesgos de IA
  11. Seguimiento y auditoría

Según la encuesta de PwC, más del 80 % afirmó haber logrado avances en estas capacidades. Sin embargo, el 11 % afirmó haber implementado las 11, aunque PwC afirmó: “Sospechamos que muchos de ellos sobreestiman el progreso”.

Añadió que algunos de estos indicadores de la IA responsable pueden ser difíciles de gestionar, lo que podría ser una razón por la que a las organizaciones les resulta difícil implementarlos por completo. PwC señaló la gobernanza de datos, que tendrá que definir el acceso de los modelos de IA a los datos internos y poner barandillas de seguridad a su alrededor. Los métodos de ciberseguridad “heredados” podrían ser insuficientes para proteger el propio modelo contra ataques como el envenenamiento de modelos.

La rendición de cuentas y la IA responsable van de la mano

Para guiar a las empresas que atraviesan la transformación de la IA, PwC sugirió formas de construir una estrategia integral de IA responsable.

Uno de ellos es generar sentido de propiedad, que según Kosar fue uno de los desafíos que tuvieron los encuestados. Dijo que es importante garantizar que la responsabilidad y la propiedad del uso y la implementación responsable de la IA recaigan en un solo ejecutivo. Esto significa pensar en la seguridad de la IA como algo que va más allá de la tecnología y tener un director de IA o un líder responsable de IA que trabaje con diferentes partes interesadas dentro de la empresa para comprender los procesos comerciales.

“Tal vez la IA sea el catalizador que una la tecnología y el riesgo operativo”, dijo Kosar.

PwC también sugiere pensar en todo el ciclo de vida de los sistemas de IA, yendo más allá de lo teórico e implementando políticas de seguridad y confianza en toda la organización, preparándose para cualquier regulación futura redoblando los esfuerzos en prácticas de IA responsables y desarrollando un plan para ser transparente con las partes interesadas.

Kosar dijo que lo que más la sorprendió de la encuesta fueron los comentarios de los encuestados que creían que la IA responsable es un valor comercial agregado para sus empresas, lo que cree que impulsará a más empresas a pensar más profundamente en ello.

“La IA responsable como concepto no solo tiene que ver con el riesgo, sino que también debe ser creativa en términos de valor. Las organizaciones afirmaron que ven la IA responsable como una ventaja competitiva, que les permite basar sus servicios en la confianza”, afirmó.

Aureliano Teodoro es un reportero de tecnología que se centra en temas de vigilancia, privacidad y poder corporativo. Anteriormente fue redactor senior en Gawker y su trabajo también apareció en GQ, Vice y la revista New York Times, El País, entre otros medios.

Leave a Comment