POLÍTICA DE INTELIGENCIA ARTIFICIAL

1. Finalidad

La presente Política de Uso de IA (en adelante, la “Política”) tiene como objetivo establecer los principios y pautas que deben regir el diseño, el desarrollo, la implementación y el uso de las herramientas y sistemas de Inteligencia Artificial (IA) en la Empresa. Busca garantizar un uso responsable, transparente, seguro y fiable de dichas tecnologías, en conformidad con la normativa aplicable, y los valores corporativos.

Esta Política se inspira en las recomendaciones y mejores prácticas de organismos internacionales (como la OCDE) y en las directrices internas, con el fin de promover un desarrollo que contribuya a la creación de valor sostenible y al bienestar de la sociedad.

2. Ámbito de aplicación

Esta Política es de aplicación a todas las áreas de la Empresa, dentro de los límites establecidos por la ley.

  • Proveedores y socios: En la medida de lo posible, se promoverá que esta Política se adopte o se refleje en los contratos y acuerdos con proveedores y socios que desarrollen o utilicen herramientas de IA en colaboración con la Empresa.
  • Proyectos conjuntos (joint ventures, consorcios, uniones temporales de empresas): Cuando la Empresa asuma la gestión de dichas iniciativas, se velará por la aplicación de los principios contemplados en esta Política, en la medida en que sea legalmente posible.

3. Principios básicos generales de actuación

Para garantizar el uso responsable y ético de la IA, se establecen los siguientes principios:

  1. Respeto a las personas y al bienestar social
    1. La IA debe estar siempre al servicio de las personas y su entorno, asegurando el respeto a la dignidad humana y los derechos fundamentales.
    2. Se procurará que el desarrollo de la IA contribuya de forma positiva a los Objetivos de Desarrollo Sostenible (ODS) y a la protección del medioambiente.
  2. Diversidad, no discriminación y equidad
    1. Se evitarán los sesgos discriminatorios en todas las fases de diseño y uso de la IA, garantizando que el procesamiento y la toma de decisiones no afecten de forma injusta a colectivos o individuos por razones de raza, origen étnico, religión, género, orientación sexual, discapacidad u otras condiciones.
  3. Cultura innovadora
    1. La IA se desarrollará y aplicará de manera que refuerce la competitividad y la innovación, motivando la generación de ideas y mejores prácticas.
    2. Fomentar un entorno de trabajo colaborativo que promueva la investigación y el desarrollo de soluciones basadas en IA en línea con la estrategia de innovación de la Empresa.
  4. Privacidad y protección de datos
    1. Todos los sistemas de IA deberán cumplir la legislación vigente sobre privacidad y protección de datos personales.
    2. Se garantizará la calidad, la integridad y la seguridad de los datos procesados, minimizando la recopilación de información sensible y protegiendo el anonimato de los usuarios cuando proceda.
  5. Transparencia
    1. Se informará a las personas usuarias o afectadas cuando estén interactuando con un sistema de IA, indicando las capacidades y limitaciones de la tecnología.
    2. La trazabilidad de las decisiones y recomendaciones generadas por la IA será primordial, de modo que los responsables puedan revisar y explicar cómo se han obtenido determinados resultados.
  6. Seguridad y resiliencia
    1. Los sistemas de IA deben diseñarse e implementarse con medidas de seguridad robustas que impidan accesos no autorizados, alteraciones o usos indebidos.
    2. Se establecerán planes de contingencia para garantizar la continuidad operativa y la resiliencia frente a ciberataques o fallos técnicos.
    3. En términos generales, se evitará el uso de sistemas de IA clasificados como de “alto riesgo” si no se dispone de garantías suficientes para prevenir daños o usos indebidos.
  7. Formación y concienciación
    1. El personal involucrado en el desarrollo y la implementación de la IA recibirá formación en asuntos legales, éticos y de ciberseguridad relacionados con la IA.
    2. Se promoverá la sensibilización interna acerca de los riesgos, limitaciones y potencialidades de la IA, de modo que las personas usuarias finales dispongan de la información y los recursos necesarios para un uso seguro.

4. Instrumentos y coordinación para la transformación digital y el uso de la IA

  1. Órgano de Transformación Digital: Se designará una Dirección responsable de definir la estrategia de IA de la Empresa y de supervisar su implementación.
  2. Procedimientos y estándares:
    1. Esta Dirección, con el apoyo externo desarrollará guías y procedimientos para garantizar que el uso de la IA cumpla con esta Política y con la normativa aplicable.
    2. Se establecerán métricas y metodologías de evaluación de riesgos para identificar, valorar y mitigar los potenciales impactos negativos de la IA.

5. Supervisión y revisión

  1. Supervisión periódica
    1. Se informará sobre el grado de cumplimiento de esta Política, incidentes relevantes y los avances en materia de IA.
    2. Se revisarán las prácticas de IA en la Empresa y se evaluarán sus riesgos inherentes, con miras a adoptar acciones preventivas o correctivas.
  2. Revisión de la Política
    1. Al menos una vez al año, la Empresa analizará el contenido de esta Política para asegurar su continua adecuación a los avances tecnológicos, cambios regulatorios y riesgos emergentes.
    2. Las propuestas de modificación deberán ser aprobadas por la Dirección, garantizando la coherencia con la estrategia general y los compromisos éticos de la organización.

6. Entrada en vigor y cumplimiento

Esta Política entrará en vigor una vez aprobada por la dirección.

El incumplimiento de esta Política puede derivar en responsabilidades disciplinarias o contractuales, según corresponda en virtud de la normativa interna o los acuerdos vigentes.

7. Aprobación

Esta Política de Uso de IA se aprueba en la fecha establecida y reemplaza cualquier versión previa o documento similar que regule el mismo ámbito.

Scroll al inicio