La IA ética es más fácil de decir que de hacer
- Gestión de información
El grupo sin fines de lucro AlgorithmWatch creó un inventario global de pautas y marcos que los gobiernos, las empresas y las sociedades podrían seguir para crear una IA ética.
La lista tiene más de 160 elementos, pero es difícil encontrar mecanismos de aplicación dentro de ellos. El año pasado, un grupo de investigadores examinó 22 pautas, marcos y principios éticos para ver si afectaban la toma de decisiones humana. ¿La descorazonadora respuesta que alcanzaron? "No, la mayoría de las veces no."
En un metanivel, el problema es algo mayor que encontrar un marco apropiado para una empresa o que tenga un mecanismo de cumplimiento que funcione. En realidad, aunque son muchos, estos marcos no tienen un estándar común, global y acordado para evaluar e implementar una IA ética y explicable.
Independientemente de las pautas y los marcos para la IA ética que elija una organización, tienen un elemento en común: enfatizan el uso de datos de alta calidad para entrenar a la IA. Los datos deficientes, incompletos, sesgados y sesgados son la causa principal de la mala reputación de la IA. Si reducimos el sesgo de los datos y lanzamos la tecnología sobre una columna vertebral ética, podemos crear futuros nuevos, interesantes y confiables para la IA, uno en el que la IA no nos confunda ni dañe a las empresas ni cause angustia social.
La necesidad de un lenguaje global común y estándares unificados es urgente. Sin esto, ninguna cantidad de pautas coincidirá con los problemas que presenta la IA. Pero las empresas inteligentes saben que deben seguir adelante: ¿la fortuna favorece a los valientes? - hacer el mejor uso posible de lo que está disponible.
A medida que crecen las inversiones en IA, crece la necesidad de una IA ética
Las empresas están apostando fuerte por la IA. Se prevé que las inversiones en inteligencia artificial crezcan de 27,23 mil millones de dólares en 2019 a 266,92 mil millones en 2027. A medida que aumentan las inversiones, la necesidad de darle a la tecnología una “brújula moral” se hará más urgente. El Instituto Nacional de Estándares y Tecnología (NIST) está tratando de hacer esto mediante el establecimiento de pautas federales de inteligencia artificial de EE.UU. que mejoran la confianza en las tecnologías de inteligencia artificial. El NIST también podría identificar métricas para medir y monitorear la IA ética, marcando el ritmo de estándares comunes.
Toda empresa debe comenzar invirtiendo en recursos legales, fuentes de datos, ciencias de datos, analizando los requisitos normativos específicos de la industria y la geografía, realizando evaluaciones de riesgos, comprendiendo las preocupaciones sociales y aprovechando la experiencia tecnológica externa. Estas inversiones darán como resultado la creación de procesos auditables para la rendición de cuentas, la documentación de por qué y cómo se usa un conjunto de datos y un inventario de modelos de toma de decisiones. Es posible que estos mecanismos no siempre eviten las fallas éticas, pero las empresas podrán identificar rápidamente las fallas y tomar medidas correctivas.
Descubre la innovación
Para asegurar el éxito empresarial, ahora y a futuro, es imprescindible maximizar el retorno de la inversión existente en software, a la vez que innovar y adoptar nuevas tecnologías. Los retos que hay abordar para competir en un mundo de TI Híbrida incluyen DevOps, Seguridad, Gestión de riesgos y Análisis predictivo. Puedes obtener más información sobre cómo abordar estos retos e innovar en este enlace.