Capital humano - DocumentoSEO
El documento tardará unos segundos en cargarse. Espere, por favor.
Wolters Kluwer logo
Ocultar / Mostrar comentarios

Las empresas deben ser proactivas a la hora de incorporar la ética en la inteligencia artificial

  • 22-7-2019 | Wolters Kluwer
  • Ciudadanos, consumidores y empleados recompensarían a las organizaciones que mejor uso de IA hagan, siendo justos, éticos y transparentes.
Portada

El Instituto de Investigación de Capgemini ha realizado un estudio bajo el título 'Why addresing ethical questions in AI will benefit organizations', en el que se ha consultado a 1.580 directivos de grandes empresas de diez países y a más de 4.400 consumidores de seis países. Las conclusiones son las siguientes:

  • Las empresas que utilicen la IA de forma ética se verán recompensadas por una respuesta más favorable de los consumidores: el 62% de los consumidores confiarán más en una empresa que hace un uso ético de la IA para interactuar con ellos.
  • Las empresas han experimentado problemas éticos relacionados con sistemas de IA: directivos de nueve de cada diez empresas tienen constancia de casos con uso ético cuestionable de la IA en los 2 o 3 últimos años, por ejemplo, en referencia a la recopilación de datos personales de pacientes sin consentimiento.
  • A los consumidores, emprados y ciudadanos les preocupa la cuestión ética de la IA y desean alguna forma de regulación: cerca de la mitad de los encuestados considera que los últimos 2 o 3 años se ha visto expuesto a dos o más casos de uso éticamente cuestionable de IA.
  • Las empresas comiezan a darse cuenta de la importancia del uso ético de la IA: el 51% de los directivos considera que es importante.
  • Las organizaciones deben priorizar una estrategia de ética en sus sistemas de IA: para hacer frente a la inquietud que esta tecnología suscita entre los consumidores y obtener los beneficios en términos de confianza que genera hacer un uso ético de ella.
  • se deben establecer fundamentos sólidos a través de una estrategia específica y un código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas y garantizar la asunción de responsabilidades; y construir equipos diversos que inculquen y aseguren la sensibilidad hacia el amplio espectro de cuestiones éticas.
  • Aquellos departamentos que tienen relación directa con los clientes y empleados tienen que asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; capacitar a los usuarios dándoles más herramientas de control y reclamación; comunicar de forma proactiva, internamente y externamente, casos cuestionables en torno a la IA para construir confianza.
  • Los equipos de análisis de datos tienen una gran importancia a la hora de buscar la manera de que los sistemas de AI sean lo más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer una gestión correcta de los datos y reducir los posibles sesgos en ellos; hacer seguimiento continuado de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA.

Sigue leyendo este artículo y accede al resto de contenidos exclusivos de Capital Humano registrándote aquí
Prueba 10 días gratis con acceso ilimitado

Si ya eres cliente de Capital Humano, introduce tu usuario y contraseña para seguir leyendo: