Perspectiva de un CCO sobre la inteligencia artificial

Perspectiva de un CCO sobre la inteligencia artificial

Seguro que está viendo muchas historias y opiniones sobre la perspectiva de un CCO sobre la Inteligencia Artificial tan relevante. Muchas de las historias que ha leído incluyen tanto lo bueno (optimización de las operaciones empresariales, incorporación de análisis predictivos, etc.) como lo malo (grandes «alucinaciones» de los modelos de lenguaje (LLM), problemas de plagio, desinformación, parcialidad, etc.). Entre el futuro panorama normativo de la IA y las poderosas formas en que la IA puede mejorar las operaciones empresariales, seguirá siendo un tema de conversación para los líderes empresariales, y los profesionales de cumplimiento deben estar en el centro de esas discusiones.

La mayoría de los responsables de riesgos y cumplimiento son conscientes del potencial de la IA para mejorar el negocio, pero las grandes capacidades tecnológicas van acompañadas de la necesidad de una gobernanza adecuada. De hecho, el tema de cómo utilizar éticamente la IA en el lugar de trabajo es tan importante.

No existe un planteamiento único para muchas cosas en la empresa, y lo mismo puede decirse de la IA. Así pues, ¿Cómo deben abordar las organizaciones el camino hacia una IA ética en función de sus casos de uso, necesidades empresariales, etc.?

Lo primero que hay que hacer desde la perspectiva del cumplimiento es realizar una evaluación de riesgos. Empezamos preguntando si la IA se utiliza actualmente en la empresa y, en caso afirmativo, cómo.

¿Existe documentación al respecto? ¿Existen normas actuales sobre su uso?

A continuación, preguntamos si hay proyectos de IA previstos. Preguntamos si existe documentación o normas/políticas aplicables.

Por último, evaluamos lo que hay que hacer para garantizar que el uso de la IA cumple o cumplirá  la ley,  los valores de la empresa y las prácticas empresariales éticas.

En lo que respecta a la IA, la legislación cambia constantemente. La propuesta de Ley de Inteligencia Artificial de la UE creará obligaciones normativas. En EE.UU. se han celebrado recientemente audiencias en el Congreso sobre el tema y se está estudiando cómo implantar una normativa eficaz. Cumplimiento debe prestar mucha atención a estas nuevas leyes para que pueda asesorar adecuadamente sobre las actividades previstas. El GDPR de la UE ya se aplica a algunas actividades relacionadas con la IA, como la revisión automática de currículums para encontrar a los mejores candidatos; queda mucho por hacer.

La conclusión es que es fundamental para el cumplimiento conocer las actividades empresariales previstas para poder responder rápida y adecuadamente. Que una actividad sea legal no significa que se ajuste a los valores de la empresa o a sus prácticas empresariales éticas. Las actividades de IA también deben revisarse con arreglo a esos criterios.

¿Cómo pueden las empresas establecer eficazmente unos límites para su programa de IA que equilibren el entusiasmo por las posibilidades de la IA con un uso responsable de la tecnología?

Cualquier barrera que se ponga en torno a la IA debe hacer referencia a las tres cuestiones mencionadas anteriormente: el cumplimiento de la ley,  los valores de la empresa y las prácticas empresariales éticas.

Las barreras nunca deben ser demasiado prescriptivas porque las prácticas y actividades empresariales en este ámbito cambian constantemente. Hay que formar a las personas que intentan utilizar la IA para que tengan en cuenta estos tres puntos centrales, y deben redactarse en un documento de política o nota consultiva que esté disponible públicamente en un sitio de la intranet u otro repositorio.

¿Tienen las organizaciones la obligación ética de ayudar a sus empleados a comprender las repercusiones previstas de la IA en la organización? En caso afirmativo, ¿Cuál es la mejor manera de enfocar esta comunicación/conversación?

Absolutamente – cualquier organización que utilice o considere utilizar IA tiene la obligación ética de ayudar a los empleados a comprender los impactos previstos de la IA en la organización. También tienen la obligación de formar a los empleados sobre los riesgos del uso de la IA y las señales de alarma a las que deben prestar atención en función de las actividades empresariales que se estén llevando a cabo o que se estén considerando. La formación puede realizarse en persona, a través de eLearning o mediante seminarios web. La comunicación puede hacerse de múltiples maneras. Lo importante es el refuerzo. La gente aprende a través del refuerzo de las ideas clave, y es fundamental que la empresa se asegure de que todo el mundo entiende sus obligaciones éticas con respecto al uso de la IA.

Fuente de la publicación: NAVEX.

Recuperado de https://www.navex.com/en-us/blog/article/a-cco-perspective-on-artificial-intelligence/ (Traducido por ICR).