Categorías: Actualidad

Inteligencia artificial en el trabajo: Lo bueno y lo malo de incorporar estas tecnologías

La Inteligencia Artificial (IA) está en todas partes, y hay interacciones que ya están instaladas como las conversaciones con los chatbots de atención al cliente o los algoritmos de IA o machine learning (aprendizaje automático) que recomiendan series o productos según los gustos de cada usuario. ESET, compañía líder en detección proactiva de amenazas, analiza beneficios, desafíos y riesgos relacionados con la implementación de IA en el trabajo.

La IA tiene el poder de optimizar los procesos empresariales y reducir el tiempo dedicado a tareas que pueden disminuir la productividad general de los colaboradores y el rendimiento empresarial durante su jornada laboral. Las empresas ya están adoptando la IA para múltiples funciones, ya sea revisando currículos para solicitudes de empleo, identificando anomalías en los conjuntos de datos de los clientes o escribiendo contenido para las redes sociales.

Sin embargo, si bien los sistemas de IA pueden minimizar los errores asociados con la fatiga y la distracción, no son infalibles. La IA también puede cometer errores, asumir falsedades mientras lo presenta como si fuera correcto, especialmente si hay problemas con los datos con los que fue entrenada o con el propio algoritmo. En otras palabras, los sistemas de IA son tan buenos como los datos con los que se entrenan (lo que requiere experiencia y supervisión humanas).

“Si bien los humanos pueden afirmar ser objetivos, todos somos susceptibles a sesgos inconscientes basados en nuestras propias experiencias vividas, y es difícil, incluso imposible, desactivar eso. La IA no crea sesgos inherentes; más bien, puede amplificar los sesgos existentes presentes en los datos con los que se entrena. Dicho de otro modo, una herramienta de IA entrenada con datos limpios e imparciales puede producir resultados puramente basados en datos y curar la toma de decisiones humana sesgada. Dicho esto, esto no es poca cosa y garantizar la equidad y la objetividad en los sistemas de IA requiere un esfuerzo continuo en la curación de datos, el diseño de algoritmos y el monitoreo continuo”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Un estudio de 2022 mostró que el 54% de los líderes tecnológicos declararon estar muy preocupados por el sesgo de la IA. Además, dado que la IA se alimenta de extensos conjuntos de datos, esto plantea la cuestión de la privacidad. Cuando se trata de datos personales, los actores con intenciones maliciosas pueden encontrar formas de eludir los protocolos de privacidad y acceder a estos datos. Si bien hay formas de crear un entorno de datos más seguro en estas herramientas y sistemas, las organizaciones aún deben estar atentas a cualquier brecha en su ciberseguridad con esta superficie de datos adicional que implica la IA.

Otro punto a considerar es que la IA no puede entender las emociones de la forma en que lo hacen (la mayoría) de los humanos. Los humanos al otro lado de una interacción con la IA pueden sentir una falta de empatía y comprensión que podrían obtener de una interacción «humana» real y esto puede afectar la experiencia del cliente/usuario. Un ejemplo de esto ocurrió con el juego World of Warcraft, que perdió millones de jugadores al reemplazar a su equipo de servicio al cliente, que solía ser personas reales que incluso entraban en el juego para mostrar a los jugadores cómo realizar acciones, con bots de IA que carecen de ese humor y empatía.

Por otro lado, con su conjunto de datos limitado, la falta de contexto de la IA puede causar problemas en torno a la interpretación de los datos. Por ejemplo, los expertos en ciberseguridad pueden tener un conocimiento previo de un actor de amenazas específico, lo que les permite identificar y marcar señales de advertencia que una máquina puede no tener si no se alinea perfectamente con su algoritmo programado. Son estos intrincados matices los que tienen el potencial de tener enormes consecuencias en el futuro, tanto para la empresa como para sus clientes.

Gutierrez Amaya, agrega: “Mientras que la IA puede carecer de contexto y comprensión de sus datos de entrada, los humanos carecen de comprensión de cómo funcionan sus sistemas de IA. Cuando la IA opera en «cajas negras», no hay transparencia sobre cómo o por qué la herramienta ha dado lugar a los resultados o decisiones que ha proporcionado. Ser incapaz de identificar el «funcionamiento» entre bastidores puede hacer que la gente cuestione su validez. Además, si algo sale mal o sus datos de entrada están envenenados, este escenario de «caja negra» dificulta la identificación, gestión y resolución del problema”.

A diferencia de la IA, las personas pueden adaptarse a situaciones cambiantes y pensar de manera creativa. Sin las reglas predefinidas, los conjuntos de datos limitados y las indicaciones que utiliza la IA, los humanos pueden usar su iniciativa, conocimiento y experiencias pasadas para enfrentar desafíos y resolver problemas en tiempo real. Esto es particularmente importante cuando se toman decisiones éticas y se equilibran los objetivos comerciales (o personales) con el impacto social.  Por otro lado, los humanos pueden adaptarse rápidamente a las condiciones cambiantes. Si necesita una declaración urgente de la empresa sobre un evento reciente o necesita alejarse del mensaje específico de una campaña. La reprogramación y actualización de las herramientas de IA lleva tiempo, lo que puede no ser apropiado en determinadas situaciones.

Desde ESET destacan que el enfoque más eficaz para la ciberseguridad no es confiar únicamente en la IA o en los humanos, sino utilizar los puntos fuertes de ambos. Lo que podría significar el uso de la IA para manejar el análisis y el procesamiento de datos a gran escala, al tiempo que se confía en la experiencia humana para la toma de decisiones, la planificación estratégica y las comunicaciones. “Nuestra recomendación es utilizar la IA como una herramienta para ayudar y mejorar a su fuerza laboral, no para reemplazarla. La IA se encuentra en el corazón de los productos en ESET, lo que permite a nuestros expertos en ciberseguridad centrar su atención en crear las mejores soluciones para los clientes. ESET identificó como aprovechar la IA desde ESET y el aprendizaje automático para mejorar la detección, investigación y respuesta a amenazas”, concluye Camilo Gutiérrez Amaya de ESET.

Editor

Entradas recientes

¿Por qué en Chile se le dice “Confort” al papel higiénico?

En Chile, es común que las personas se refieran al papel higiénico como "Confort", sin…

7 minutos hace

Urge proteger medidores de agua por heladas: Aguas Araucanía registró congelamiento de más de 1500

Sanitaria hizo un urgente llamado a la comunidad a protegerlos con material aislante, considerando que…

45 minutos hace

Docentes de la Región de la Araucanía hacen propio un innovador método de enseñanza de las matemáticas

Propiciar cambios significativos en el aprendizaje de la matemática es una tarea que no puede…

60 minutos hace

Avenida Caupolicán concentra trabajos de mejoramiento y semaforización para la conexión con la Avenida Pablo Neruda

Con un 76% de avance físico, el proyecto de mejoramiento de la Avenida Pablo Neruda…

4 horas hace

En Villa Mininco celebran la recuperación de dos plazas emblemáticas que vuelven a estar al servicio de la comunidad

Hace un tiempo, las plazas Las Cumbres y Las Vertientes eran espacios abandonados, con infraestructura…

4 horas hace

Drogas, crimen organizado y la mirada hacia la Defensoría: la frágil muralla de control en La Araucanía

La penetración de bandas criminales locales e internacionales, no sólo ha impactado el tráfico de…

7 horas hace