La ciberseguridad sigue siendo una preocupación clave en las implementaciones de IA

  • Seguridad

inteligencia artificial 7

“Los aspectos prácticos de la implementación de la IA son extremadamente complejos, y la postura de riesgo de la compañía puede aumentar significativamente si no se adopta una aproximación adecuada y segura”, afirma Aran Erel, director general de F5 en España.

  Recomendados....

Hacia la mejor estrategia de datos mediante la gestión, la analítica y la IA. Leer
Cómo combatir amenazas desconocidas con tecnologías Cisco. Disponible
Industria y energía, sectores punteros también en digitalización Registro

Aprovechando la celebración en Madrid de AppWorld, su evento anual para partners y clientes, F5 ha hecho público el Informe 2024 State of AI Application Strategy, que revela que si bien el 75% de las empresas ya está implementando IA, un 72 % se encuentra con importantes problemas de calidad de los datos y con una incapacidad para escalar las prácticas relacionadas con ellos, algo crítico para la adopción y optimización exitosa de la IA.

“La IA es una fuerza disruptiva que permite a las organizaciones crear experiencias digitales innovadoras y únicas. Sin embargo, los aspectos prácticos de la implementación de la IA son extremadamente complejos, y la postura de riesgo de la compañía puede aumentar significativamente si no se adopta una aproximación adecuada y segura, afirma Aran Erel, director general de F5 en España. “Este informe destaca una tendencia preocupante: muchas empresas, en su afán por aprovechar la IA, pasan por alto la necesidad de establecer una base sólida. Eso no sólo disminuye la eficacia de sus soluciones de IA, sino que también las expone a una multitud de amenazas de seguridad”.

La IA generativa y retos de la implementación de la IA

Las organizaciones están entusiasmadas con el impacto de la IA generativa en sus negocios. Sin embargo, solo el 24% de las organizaciones dice haber implementado IA generativa a escala.

Aunque el uso de la IA generativa va en aumento, los casos de uso más comunes suelen cumplir funciones poco estratégicas. Entre ellos, destacan los copilotos y otras herramientas de productividad para empleados (utilizadas por el 40% de los encuestados) y herramientas de servicio al cliente, como chatbots (36%). Sin embargo, los encuestados consideran que el caso de uso de IA más prioritario serían las herramientas para la automatización del flujo de trabajo (36%).

Al repasar los retos de la implementación de aplicaciones basadas en IA, los directivos señalan tres preocupaciones principales en la capa de infraestructura: el 62% cita el coste de la computación como una preocupación importante para escalar la IA, el 57% cita la seguridad del modelo como una preocupación principal, y el 55% menciona el rendimiento en todos los aspectos del modelo como una preocupación.

En la capa de datos, la madurez de los datos es un desafío inmediato e importante que afecta la implementación generalizada de la IA. El 72% de los encuestados cita la calidad de los datos y la incapacidad de escalar las prácticas de datos como los principales obstáculos para escalar la IA, mientras que el 53% cita la falta de habilidades en inteligencia artificial y datos como un impedimento importante.

Aunque un 53 % de las empresas dice contar con una estrategia de datos definida, más del 77 % de las organizaciones encuestadas afirma carecer de una Fuente Única de Verdad para sus datos.

La ciberseguridad como preocupación clave

Según el estudio de F5, la ciberseguridad es una de las principales preocupaciones de quienes tienen la tarea de entregar servicios de IA. Factores como los ataques impulsados por IA, la privacidad de los datos o la fuga de datos se encuentran entre las principales preocupaciones de seguridad de la IA.

Cuando se les pregunta cómo planean defenderse contra estas amenazas para proteger las implementaciones de IA (o si ya lo están haciendo), los encuestados dicen centrarse en servicios de aplicación como la seguridad de API, la monitorización y la protección contra DDoS y bots. Así, el 42% afirma que está utilizando o planea utilizar soluciones de seguridad API para proteger los datos a medida que estos se mueven a través de los modelos de entrenamiento de IA; el 41% usa o planea usar herramientas de monitorización para tener visibilidad del uso de aplicaciones de IA; un 39% usa o planea usar protección DDoS para modelos de IA; y el 38% usa o planea usar protección contra bots para modelos de IA.