?>
Tecnología
Nacional | Nacional | Nacional - Publicado hace 528 dias

Uso ético de la Inteligencia Artificial: Protección de datos personales es el tema que más preocupa a las empresas

Internet Uso ético de la Inteligencia Artificial: Protección de datos personales es el tema que más preocupa a las empresas
#6071 | 12 de Julio del 2023
El sondeo realizado en el marco de la conferencia “Inteligencia Artificial y protección de datos: innovar con integridad”, mostró que un 31,4% afirma que le inquietan las fallas que estas tecnologías puedan presentar en el resguardo de datos personales.

Los datos personales están en el centro de las preocupaciones de las empresas a la hora de hablar de inteligencia artificial y uso ético de las nuevas tecnologías. Así lo mostró un pulso realizado por Fundación Generación Empresarial (FGE) y BackSpace (consultora de IA, analítica y automatización de procesos), el cual se aplicó en el marco de la conferencia “Inteligencia Artificial y protección de datos: innovar con integridad”. En la actividad participaron el socio fundador de BackSpace, Maurizio Pancorvo; y el abogado experto en estos temas Raúl Arrieta, quienes intercambiaron puntos de vista en una conversación que fue moderada por Fernanda Hurtado, gerente general de FGE.

El sondeo “Inteligencia Artificial y ética: ¿Cuáles son las preocupaciones y urgencias?”  contó con las respuestas de representantes de 35 empresas y reveló que un 48% de ellos opina que la protección de datos personales es la medida que más urge desarrollar en Chile, seguida de la regulación del uso de la Inteligencia Artificial (34,3%) y la ciberseguridad (11,4%).

En la misma línea, un 31,4% afirmó que las fallas que se puedan presentar en el resguardo de los datos personales es el principal aspecto ético que les inquieta del uso de estas herramientas. Más atrás en materia de preocupaciones figuran fallas en la tecnología que pongan en riesgo la reputación corporativa y sesgos de la tecnología que generen decisiones discriminatorias por parte de las empresas (ambas con un 22,9%).

“El uso de la Inteligencia Artificial está impulsando a miles de empresas alrededor del mundo pero, a la vez, también ha despertado muchas inquietudes sobre su uso ético. En Fundación Generación Empresarial estamos comprometidos no solo con promover buenas prácticas y el cumplimiento de las leyes vigentes, sino también con abrir espacios para discutir cómo nos hacemos cargo de estos desafíos que aún no han sido resueltos por la regulación. Una actitud proactiva es clave para prevenir eventuales malas prácticas en este ámbito”, señaló Fernanda Hurtado, gerente general de FGE.

Por su parte Maurizio Pancorvo, experto en Inteligencia Artificial y fundador de la consultora BackSpace, recalcó la importancia de conversar estos temas dentro de las empresas. “Creo que el desafío de las compañías no está tanto en los costos o aplicación técnica de estas tecnologías, sino en el tema cultural de cómo nos preparamos para incorporar la Inteligencia Artificial de manera adecuada y ética. En este sentido, es fundamental tener conversaciones no solo a nivel directivo, sino con los propios equipos, informando sobre las inversiones que se harán, los efectos que esto tendrá en el trabajo diario y, sobre todo, atendiendo y resolviendo las legítimas dudas que las personas pueden tener sobre estos temas”.

Medidas que pueden adoptar las empresas

El pulso desarrollado por FGE y BackSpace consultó también a los participantes sobre las medidas que pueden adoptar las empresas para abordar el uso de las tecnologías de Inteligencia Artificial y la automatización. Los encuestados señalaron que las principales son una definición de políticas internas (37,1%), formación del personal en el uso éticos de estas herramientas (31.4%), capacitación de los empleados para que adquieran nuevas habilidades e incorporen la IA a sus tareas (20%) e incorporación de estos temas al comité de riesgos de (11,4%).

Sobre qué acciones ya están siendo implementadas en las organizaciones, un 77% de los encuestados reconoció que no poseen una política interna de regulación de tecnologías de inteligencia artificial como ChatGPT u otras, mientras que el 20% señaló que están trabajando en esto.