¿Datos incorrectos, malas decisiones?
- Gestión de información
A pesar de la utilidad social de la tecnología de inteligencia artificial, existen preocupaciones legítimas relacionadas con las consecuencias involuntarias de las tecnologías de inteligencia artificial basadas en sesgos algorítmicos.
Una investigación exhaustiva sobre la ética de la inteligencia artificial para la Asociación para la Gestión Inteligente de la Información (AIIM) aegura que la IA solo es tan buena como los datos detrás de ella. Incluso con las mejores intenciones, a menudo surgen casos en los que la toma de decisiones automatizada basada en algoritmos de IA produce resultados erróneos y, en muchos casos, discriminatorios.
Aún más desconcertante en la falta de transparencia por parte de las compañías de tecnología que desarrollan algoritmos de inteligencia artificial para revelar cómo funcionan dichos algoritmos, en parte para proteger sus derechos de propiedad intelectual.
El Reglamento General de Protección de Datos (GDPR) ya incluye una disposición que requiere que los controladores y procesadores de datos realicen evaluaciones de impacto en la privacidad donde se implementan decisiones automatizadas que afectan los derechos legales y económicos de los interesados. Además, el Parlamento de la UE adoptó una resolución para un entorno regulatorio para la IA que fomenta la protección de los usuarios.
Para inculcar la ética en el desarrollo de IA, la autorregulación por parte de la industria es un enfoque plausible. El diseño de la ética en IA comienza con la determinación de lo que les importa a las partes interesadas, como clientes, empleados, reguladores y público en general.
Para hacer esto, las empresas deberían considerar la creación de un comité de asesoría y gobernanza de IA dedicado que incluya líderes multifuncionales y asesores externos que se involucren con las partes interesadas, incluidos los grupos de trabajo de múltiples partes interesadas, y establezcan y supervisen la gobernanza de las soluciones habilitadas para la IA, incluidas sus diseños, desarrollo, despliegue y uso.
La ética desempeña y seguirá desempeñando un papel central en el desarrollo de la inteligencia artificial. La IA se está utilizando para abordar los problemas más urgentes de la sociedad en las áreas de disparidad de riqueza, atención médica, educación y medio ambiente.
Cuanta más diversidad tengamos en el desarrollo de IA, mejor podremos asegurarnos de que toda la humanidad esté bien representada y sea servida por esta tecnología.
Descubre la innovación
Para asegurar el éxito empresarial, ahora y a futuro, es imprescindible maximizar el retorno de la inversión existente en software, a la vez que innovar y adoptar nuevas tecnologías. Los retos que hay abordar para competir en un mundo de TI Híbrida incluyen DevOps, Seguridad, Gestión de riesgos y Análisis predictivo. Puedes obtener más información sobre cómo abordar estos retos e innovar en este enlace.