La inteligencia artificial responsable y su potencial económico en todas las industrias

La inteligencia artificial responsable y su potencial económico en todas las industrias

Un informe de Mapfre señala que la mayor parte de las organizaciones consideran que la inteligencia artificial responsable debe ser una prioridad.

La inteligencia artificial está llamada a ser la próxima frontera de la productividad, con un potencial económico inmenso en todas las industrias. Los analistas la califican como el desarrollo tecnológico del siglo XXI, y su repercusión social es ya palpable. Sin embargo, para que esto ocurra, su desarrollo debe ser responsable.

La IA puede realizar una gran variedad de tareas rutinarias. Como resultado, está impregnando cada vez más las tareas y operaciones empresariales, así como el día a día de la sociedad. Además, tiene efectos muy positivos a nivel económico y puede habilitar desarrollos tecnológicos encadenados que harán crecer la tasa de productividad. Por ello, es necesaria para impulsar el desarrollo y ayudar a resolver muchos de los problemas actuales.

A pesar del enorme potencial económico que ofrece, su uso también conlleva incertidumbre y complejos riesgos latentes.

Inteligencia Artificial Responsable: tecnología confiable, segura y sostenible para generar la economía del futuro

El informe, elaborado desde Mapfre, señala que la mayor parte de las organizaciones consideran que el uso responsable de la IA debe ser una prioridad para la alta dirección de sus compañías. Para garantizar un desarrollo económico, tecnológico y social sostenible con el uso de IA, es esencial mitigar los riesgos asociados a esta tecnología. Esto incluye aspectos como pérdidas económicas, operativas o reputacionales, daños físicos a individuos, marginación/discriminación de colectivos, inestabilidad económica o política, o problemas de seguridad digital.

De nada sirve generar ahorros o aumentar la productividad, si no se controlan los riesgos operativos, éticos y regulatorios que trae consigo, o si las empresas no priorizan su uso responsable. Las consecuencias a corto y largo plazo de no gestionar y mitigar los desafíos son demasiado graves. Estos riesgos se pueden y se deben controlar”, comenta Bárbara Fernández, directora adjunta de Mapfre Open Innovation.

Esto implica tener en cuenta los siguientes principios:

  • Integridad. Los sistemas de IA deben ser fiables y precisos.
  • Justicia. Los sistemas de IA deben ser equitativos y evitar la discriminación.
  • Transparencia. Los sistemas de IA deben ser transparentes y comprensibles para los usuarios.
  • Responsabilidad. Los sistemas de IA deben ser responsables ante las personas que los utilizan.

Para ello se requiere definir buenas prácticas, estándares y servicios para la evaluación, monitorización y mitigación de los riesgos. A medida que continúe incrementándose la adopción de la IA y la regulación entre en vigor, no solo aumentará la necesidad de cumplir con esa primera fase sino que también lo hará el asegurar el cumplimiento regulatorio.

También te puede interesar:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *