Los líderes necesitan responsabilizarse de las prácticas responsables de IA

Los líderes necesitan responsabilizarse de las prácticas responsables de IA
La IA proporciona oportunidades, pero también retos inherentes entorno a la confianza y contabilidad.Anand Rao, líder mundial de IA de PwC US

Los líderes necesitan responsabilizarse de, y llevar a cabo la acción sobre, las prácticas responsables de IA.

El potencial económico estimado de 15.700 billones de dólares de la inteligencia artificial (IA) solo se va a conseguir si la integración de las prácticas responsables de IA se dan en las organizaciones, y se consideran antes de cualquier desarrollo, según un nuevo documento de PwC.

Luchar contra una aproximación fragmentada para el desarrollo e integración de la IA (que está exponiendo a las organizaciones hacia los riesgos potenciales) necesita que las organizaciones estén integradas en el conocimiento complete, desarrollando e integrando las prácticas responsables de IA, según el nuevo kit de herramientas publicado esta semana a través de PwC.

PwC ha identificado cinco dimensiones de organización necesarias para centrarse en ellas y dirigirse a estrategias específicas, diseño, desarrollo y despliegue de IA: Governance, Ethicsand Regulation, Interpretability & Explainability, Robustness & Security y Bias and Fairness.

Las dimensiones se centran en la integración del plan estratégico y su gobierno en el desarrollo de la IA, luchando contra las preocupaciones públicas cada vez mayores acerca de la justicia, confianza y contabilidad.

A principios de este año, el 85% de los consejeros delegados indicaron que la IA podría cambiar de forma importante la forma de llevar a cabo negocios en los próximos cinco años,y el 84% admitió que las decisiones basadas en IA tenían que explicarse para poder confiaren ellas.

Hablando acerca del World Economic Forum de Dalian, Anand Rao, líder mundial de IA de PwC US, destacó: “El tema de la ética y responsabilidad dentro de la IA son claramente una preocupación para la mayor parte de los líderes de negocios. La C-suite necesita activamente conducir y dirigirse a la integración completa de una estrategia de dirección responsable y ética para el desarrollo de la IA con el fin de equilibrar las ganancias de potencial económico con la transformación única en una generación que puede llevarse a cabo en un negocio y sociedad. Una sin la otra representan los riesgos fundamentales de reputación, operación y finanza“.

Como parte del Responsible AI Toolkit de PwC, una encuesta de diagnosis permite a las organizaciones evaluar su conocimiento y aplicaciones de prácticas de IA. En mayo y junio de 2019, unos 250 respondientes implicados en el desarrollo y despliegue de IA completaron la evaluación.

Los resultados demuestran una inmadurez e inconsistencia en el conocimiento y aplicación de las prácticas responsables y éticas de IA: Solo el 25% de los encuestados indicó que priorizaría una consideración de implicaciones éticas de una solución de IA antes de implementarla.

Uno de cada cinco (20%) ha definido procesos de forma clara para la identificación de riesgos asociados con la IA. Más del 60% confían en los desarrolladores, procesos informales o no tienen procedimientos documentados.

Los marcos éticos de IA o consideraciones existen, pero su refuerzo no es consistente. El 56% explicó que sería complicado articular la causa de la IA en su organización cuando se hizo mal.

Más de la mitad de los encuestados no ha formalizado su aproximación de cara a la evaluación de la IA para su inclinación, citando la falta de conocimiento, herramientas y evaluaciones de tipo ad hoc.

El 39% de los encuestados con IA aplicada a escala estaban solo “algo” seguros en relación a saber detener su IA si algo salía mal.

Rao, destacó: “La IA proporciona oportunidades, pero también retos inherentes entorno a la confianza y contabilidad. Para conseguir el precio de la productividad en la IA, el éxito necesita de estrategias organizativas integradas y fuerza laboral y su planificación. Existe una necesidad clara para los que están en la C-suite de cara a revisar las prácticas futuras y actuales de IA dentro de su organización, realizando preguntas no solo para hacer frente a los riesgos potenciales, sino también para identificar si están en marcha las estrategias adecuadas,controles y procesos“.

Las decisiones de IA no son como las que llevan a cabo los humanos. En cada caso, hay que ser capaz de explicar las elecciones, y conocer los costes e impactos asociados. No se trata solo de soluciones de tecnología para la detección de inclinaciones, corrección, explicación y construcción de sistemas seguros y prudentes. Hace falta un nuevo nivel de liderazgo integral que considere las dimensiones éticas y responsables del impacto de la tecnología en los negocios, comenzando desde el día uno“, añadió.

Además, en el lanzamiento de esta semana realizado en el World Economic Forum de Dalian, Wilson Chow, responsable de Medios y Telecomunicaciones de PwC China, sentenció:”La fundación para una IA responsable es un gobierno empresarial completo. La capacidad de las organizaciones para responder a preguntas sobre contabilidad, alineación y controles serán el factor definitorio para conseguir la estrategia de crecimiento IA ambiciosa de China“.

El Responsible AI Toolkit de PwC está formado por una suite flexible y escalar de capacidades mundiales, además de diseñarse para permitir y apoyar la evaluación y desarrollo de la IA por medio de la organización, destinada a hacer frente a las necesidades empresariales únicas y al nivel de madurez de la IA.

Ultimas Noticias

Dejar su comentario sobre esta nota

Su direccion de correo no se publica. Los datos obligatorios se encuentran identificados con un asterisco (*)