IA, estos profesionales especializados nos ayudan a tomar el rumbo de la IA generativa.

“Superpoderes”, “superasistente”, “superrendimiento”, los superlativos no faltan cuando se trata de Inteligencia Artificial Generativa. Y los últimos anuncios de OpenAI de noviembre lo confirman, alimentando aún más las fantasías – personalización, reducción de costos – y los temores.

La revolución de la IA es inevitable para mantenerse en la carrera por el rendimiento: el 65% de los directores ejecutivos franceses lo consideran hoy una inversión prioritaria y el 88% de ellos espera un retorno de inversión en los próximos 5 años*.

Si bien las perspectivas de desarrollo de la IA generativa son prometedoras, también generan legítimas preocupaciones sobre los límites de su uso: riesgos de error, sesgos, cuestiones éticas, problemas de seguridad y confidencialidad de los datos, costos energéticos y financieros.

Dominar esta herramienta es uno de los grandes desafíos de las empresas hoy en día. Para lograrlo, deben hacerse las preguntas correctas: ¿qué solución adoptar, qué límites establecer (en términos de seguridad, deontología, inversión), qué estrategia desplegar? Ahí es donde intervienen nuestros independientes.

IA, estos profesionales especializados nos ayudan a tomar el rumbo de la IA generativa.

Elija a uno de los interlocutores para acceder directamente a su entrevista.

Experto en temas ambientales y tecnológicos

Especialista en Datos y Sostenibilidad

Investigador Postdoctoral en IA

Jefe de Producto de la OMS

En OMS, acompañamos a nuestros clientes en temas de datos gracias a los expertos de nuestro equipo: profesionales especializados en estos temas complejos y disponibles para ayudarlo a dar el paso hacia la IA generativa, combinando agilidad y rendimiento y poniendo lo humano en el centro del proceso.

Hoy, 3 independientes de OMS, especialistas en el tema, comparten su punto de vista:

– Autor de una tesis sobre IA en INRIA, Grégoire Mialon trabaja actualmente en el laboratorio de investigación de META en París En el corazón del reactor, nos brinda su visión sobre las perspectivas y peligros de la IA. – Fundador de Livosphère, consultoría en tecnología / clima, Dimitri Carbonnelle añade una dimensión RSE a la cuestión de la IA generativa. El autor de “2050: Crash o Renacimiento” propone soluciones para limitar el impacto energético de la IA y ponerla al servicio de la causa ambiental. – Especialista en experiencia del cliente y temas de sostenibilidad, Claire Lelièvre, acompaña a startups, ONGs y grandes empresas, principalmente en el sector de servicios. Para finalizar, Marceau Longeanie, Jefe de Producto Principal de OMS, le dará 4 claves concretas para acompañar a sus equipos en el uso de la IA, en beneficio de su rendimiento económico. ¿Le interesa el tema? Contáctenos y comparta sus preguntas y necesidades con nosotros. ¡Feliz lectura!
grer

Chercheur postdoctoral en IA, Grégoire Mialon trabaja actualmente en el laboratorio de investigación en IA de Meta.

¿Cómo te interesaste en los temas de IA?

Descubrí la IA en 2016 mientras estudiaba ingeniería. Me parecía mágico no solo que una computadora pudiera aprender una tarea simplemente a partir de ejemplos, sino también ver cómo emergían de manera natural en las neuronas del modelo conceptos, patrones que nos resultan familiares a nosotros, los humanos. Y las aplicaciones industriales parecían diversas y prometedoras. En 2018, realicé una tesis en el INRIA¹ sobre la construcción de modelos que necesitarían la menor cantidad de datos de entrenamiento posible para funcionar. Al mismo tiempo, Open AI y otros estaban explorando un enfoque diferente: al educar un modelo lo suficientemente simple pero gigantesco con una gran cantidad de datos genéricos, no necesariamente relacionados directamente con el problema, luego lo adaptaríamos a un problema particular². Después de mi tesis, me uní al laboratorio de investigación en IA de Meta para trabajar en estos enfoques, de los cuales los LLM³ son parte. Meta está desarrollando un LLM llamado Llama. Entrenar a un LLM con el que se puede dialogar se realiza en dos fases: una fase de aprendizaje con una gran cantidad de datos y una fase de entrenamiento para seguir instrucciones, para poder conversar con él.

¿Cuál es tu especialización, tu área de experiencia hoy en día?

En este momento en Meta, estoy entrenando a los LLMs para que utilicen herramientas para responder preguntas a las cuales no saben responder basándose únicamente en sus datos de entrenamiento. Por ejemplo, estoy enseñando a los LLM a utilizar un motor de búsqueda cuando sus datos de entrenamiento no son lo suficientemente recientes para responder a una pregunta específica, como encontrar al ganador de la Copa del Mundo de Rugby 2023, que es información aún muy reciente para haber sido incluida en los datos de entrenamiento. También podemos entrenarlos para que utilicen otras herramientas, como una calculadora, para no cometer errores en cálculos. Esto era imposible hasta ahora porque los modelos no eran lo suficientemente competentes para saber cuándo y cómo usar las herramientas, y esto desbloquea muchos casos de uso. Esto cambiará fundamentalmente la naturaleza de los LLMs.

¿Cómo la IA es un impulsor para el crecimiento de las empresas?

La IA permite ganancias de productividad considerable para las empresas mediante la búsqueda de información clave entre grandes cantidades de datos textuales, pero estos modelos tienen un costo energético y financiero. El desafío para las empresas hoy en día es comprender qué pueden hacer los LLM que otros métodos existentes y menos costosos no pueden. Por otro lado, las empresas también deben identificar qué no pueden hacer los LLM, como generar completamente una nueva estrategia de marketing, ya que aún no saben razonar o planificar bien, y están limitados en términos de creatividad. Se puede confiar en un LLM para automatizar cosas bien definidas. Para tareas más complejas, aún se debe ver como un asistente con el que interactuar para acelerar el trabajo, pero siempre hay un humano en el proceso.

¿Cómo colaboran Estados Unidos y Francia para acelerar el progreso de la IA?

Hay muchos vínculos entre Estados Unidos y Francia porque muchos franceses ocupan puestos clave en laboratorios estadounidenses, el más conocido siendo Yann Le Cun, quien lidera el área de IA en Meta, pero hay muchos otros. Además, el ecosistema que se está construyendo en Francia es muy interesante. En París, Meta, Google DeepMind y Apple tienen importantes centros de IA. Startups francesas como Mistral se están estableciendo con excolaboradores de laboratorios estadounidenses. HuggingFace fue creada por franceses, en parte con fondos estadounidenses. París es un lugar clave para investigadores de nivel mundial, así como para la financiación: Mistral ya ha recaudado 100 millones, Poolside, una empresa fundada por un ex empleado de Github, se instala en París, Xavier Niel invierte cientos de millones de euros en varias actividades relacionadas con la IA, incluyendo un nuevo laboratorio, Kyutai. También hay un diálogo importante con el gobierno francés, Bruno Le Maire o Jean-Noël Barrot están muy al tanto de lo que sucede en IA.

En cuanto a la regulación, Estados Unidos está yendo más allá que la UE con la reciente publicación de una Orden Ejecutiva que propone controles exhaustivos sobre los modelos de IA (cantidad máxima de cálculos para entrenar un modelo, establecimiento de vigilancia en torno a posibles abusos, etc.). Estados Unidos y Francia están muy relacionados. Europa es más pequeña pero tiene muchos activos: París es un centro fuerte de IA, Londres también lo es con la sede de Google DeepMind que cuenta con cientos de investigadores de nivel mundial, y el diálogo con los reguladores europeos parece constructivo.

¿Cuál sería el mayor riesgo asociado con la IA?

Desde mi perspectiva personal, creo que más que un peligro, la IA representa una oportunidad. La IA podría ayudarnos a descubrir nuevos medicamentos, nuevos materiales, comprender mejor nuestro universo, generar enormes ganancias de productividad, entre otros beneficios. Como en toda tecnología, habrá abusos, que hoy en día no son fáciles de predecir. Algunas personas temen que a largo plazo, los LLM se vuelvan más inteligentes que nosotros y tomen el control del planeta, pero esto sigue siendo muy hipotético: la ciencia se desarrolla en los detalles y nada indica que los LLM lleguen a ese punto. Estas cuestiones son interesantes, pero hay otros desafíos que se hablan menos y que son muy concretos. Por ejemplo, uno de los efectos potenciales de la regulación en Estados Unidos es la creación de un monopolio de la IA por parte de empresas como OpenAI. Por otro lado, la postura de Meta es que se debe fomentar el código abierto en este campo y abrir las herramientas para todos. En otro ámbito, ¿cuáles serán los efectos de la IA en la automatización de empleos? ¿En la desinformación?

Para tareas complejas, se debe ver a la IA como un asistente con el que interactuar para acelerar el trabajo… pero siempre habrá un humano en el proceso.

¿Anticipa en el sector de la investigación, evoluciones de la IA que podrían volver a perturbar el mundo empresarial?

Es imposible predecir el futuro. Creo que seguiremos mejorando modelos como GPT durante algunos años más para que sean aún más eficientes y confiables, comprendan imágenes y videos. Por lo tanto, serán cada vez más utilizables por las empresas. Después, es posible que lleguemos a un punto de estancamiento. Algunos investigadores creen que entraremos en un bucle donde el LLM logrará generar sus propios datos de entrenamiento, aún mejores, y mejorar por sí mismo gracias a estos datos. Si tuviera que hacer una suposición sobre una dirección de investigación en unos años, diría que estos modelos aún no son muy autónomos: no tienen autonomía en el aprendizaje, es decir, no se pueden dejar en la naturaleza para que aprendan solos, y no son muy buenos para manejar situaciones nuevas. En este sentido, ¡finalmente son menos inteligentes que mi gato!

  1. Instituto Nacional de Investigación en Ciencias y Tecnologías del Digital.
  2. Esto corresponde al “fine tuning”, recuperar un modelo que un gran laboratorio ha entrenado y adaptarlo a un problema particular.
  3. Los Modelos de Lenguaje Amplio o LLM son modelos de aprendizaje automático entrenados en conjuntos extensos de datos textuales y capaces de comprender y generar textos humanos.
claire

Como consultora independiente durante más de 10 años, Claire acompaña a startups, ONG y grandes empresas, principalmente en el sector de servicios, con una doble especialización en experiencia del cliente y sostenibilidad.

"¿Puedes hablarnos sobre tu trayectoria, las experiencias que has tenido en el tema y tu especialización actual en el campo?"

Durante más de 10 años he estado proporcionando consultoría a grandes empresas, principalmente en el sector de servicios (bancos, restauración colectiva, energía, telecomunicaciones), así como a startups y ONGs. He trabajado tanto en temas relacionados con lo digital, especialmente la experiencia del cliente, como en temas de sostenibilidad. Comencé a trabajar en temas de inteligencia artificial hace 7 años, durante un proyecto de creación de un banco digital en el que la IA tenía un papel crucial. Estuve a cargo del desarrollo de ofertas bancarias, lideré el diseño de todos los procesos de clientes con un equipo de 3 personas y dirigí la construcción del modelo de relación centrado en la IA. En este proyecto, en un año, creamos una aplicación móvil respaldada por una plataforma tecnológica bancaria integrada con 40 socios tecnológicos y con un equipo de alrededor de cien desarrolladores para coordinar en un modo ágil.

Fascinada por el mundo digital y el poder del trabajo en equipo en modo ágil, he seguido comprometiéndome en proyectos de gran envergadura que combinan tecnología, agilidad y enfoque en el cliente. Durante un año, trabajé para una gran empresa en Estados Unidos en un proyecto para establecer un laboratorio de innovación dedicado a la inteligencia artificial al servicio del conocimiento del cliente. Deseando integrar la ecología en el centro de mi trabajo, rápidamente me interesé en el uso de la IA para abordar desafíos ambientales como el cambio climático, la protección de la biodiversidad o la conservación del agua, por ejemplo. Trabajé en el incubador Techstars Sustainability en Denver (EE. UU.) para profundizar en estos temas. Desde hace más de un año, estoy acompañando a un actor global en el sector de la restauración colectiva y la gestión de instalaciones en los ámbitos digital, del consumidor y de la sostenibilidad como parte del equipo Global Digital & Data de este gran grupo.

¿Cómo puede ser utilizada la IA en temas ambientales? ¿La IA facilita la consideración de los problemas ecológicos para las empresas?

Una gran empresa que desea invertir a gran escala en el tema de la sostenibilidad no puede hacerlo sin tener datos de buena calidad a su disposición. De hecho, la elaboración de un plan de acción estratégico sobre temas ambientales implica una fase de diagnóstico que permite comprender los posibles factores clave de acción. Por ejemplo, para reducir la huella de carbono, es necesario identificar con precisión las principales fuentes de emisiones. En este ejercicio, es necesario cruzar diversas fuentes de datos para proyectar los posibles avances según la situación de la empresa. Si tomamos como ejemplo una empresa de restauración colectiva y gestión de instalaciones, los KPI que se pueden seguir para medir el impacto podrían ser, por ejemplo: la reducción de la huella de carbono, la reducción del consumo de agua o la reducción del desperdicio de alimentos.

En este caso, la IA es relevante, entre otras cosas, para:

1. La implementación de herramientas de informes avanzados.
2. La realización de acciones automatizadas que limiten el impacto de la empresa en el medio ambiente.
3. Ayudar al cliente a adoptar un consumo más responsable.

Más específicamente:

1. Herramientas de informes más avanzadas gracias al uso de IA pueden ser empleadas para seguir los indicadores clave y comprender mejor el impacto de las decisiones de la empresa. El informe en tiempo real también puede generar alertas en caso de anomalías operativas que tengan un impacto negativo en el medio ambiente, como un consumo de energía anormal.

2. La IA también puede tomar decisiones proactivas y llevar a cabo acciones asociadas. En el ejemplo anterior, la IA podría detectar picos de consumo y actuar directamente para reducir la temperatura en las instalaciones, por ejemplo. A largo plazo, la IA, al aprender lo suficiente, puede optimizar la gestión del consumo de energía de una empresa de manera precisa y proactiva.

3. En la relación con el cliente a través de soluciones digitales, la IA permite comprender mejor las necesidades y expectativas de los clientes. Los datos proporcionados al cliente para guiar sus decisiones de consumo son cruciales. En el caso de la compra de alimentos en línea, por ejemplo, la IA puede proporcionar fácilmente al cliente los datos correctos en el momento adecuado para orientarlo hacia un consumo de alimentos más responsable. La IA puede ofrecer información detallada, de manera proactiva o no, sobre el impacto de los productos alimentarios. Por ejemplo, la IA puede analizar la composición de los platos y proporcionar al consumidor datos como la huella de carbono de los alimentos, el origen de los platos, el consumo de agua generado para la producción, el impacto en la salud, …

La IA es capaz de proponer proactivamente alternativas. Puede ofrecer descuentos en ciertos productos en lugar de otros. Incluso el consumidor puede solicitar recibir recomendaciones personalizadas según sus necesidades: consumir vegetariano, comprar más local, … Es posible permitir al cliente elegir si desea este tipo de asistencia o no. Utilizada con la intención de respetar a las personas y la naturaleza, la IA puede convertirse en un verdadero compañero para las empresas y sus clientes, en la generación de modelos de consumo cada vez más responsables.

La IA se está imponiendo hoy en día como una revolución global que de alguna manera obliga a las empresas a integrarla en sus procesos para mantenerse competitivas, ¿ocurre lo mismo con la aplicación de la IA a los temas ecológicos?

La preservación de nuestro planeta y de las especies que lo habitan es el desafío del siglo para los seres humanos y, por lo tanto, para las empresas. Responsables del cambio climático y del colapso de la biodiversidad, las actividades humanas evolucionarán drásticamente en los próximos años, ya sea por elecciones informadas o por fuerza de las circunstancias. Las empresas que no logren reducir su impacto y ofrecer soluciones respetuosas con el ser humano y el medio ambiente se enfrentarán a importantes dificultades que pondrán en peligro su sostenibilidad: un creciente desinterés de los consumidores informados, dificultades para reclutar talentos, denuncias de prácticas de lavado de imagen ecológico, … Las empresas que logren comunicarse de manera transparente y alcanzar la neutralidad de carbono, e incluso generar una huella de carbono negativa, son, en el mundo de hoy, las verdaderas empresas innovadoras.

guillemetLa innovación disruptiva se produce a través de nuevos modelos de negocio, en los cuales la tecnología tiene un lugar importante para acelerar los cambios a gran escala.

La IA es sin duda una innovación disruptiva, muy poderosa y capaz de alterar todos nuestros modos de funcionamiento, pero sin un enfoque de Responsabilidad Social Empresarial (RSE) de vanguardia para guiar su uso, no permitirá que las empresas prosperen ni que nuestra humanidad perdure. La verdadera innovación disruptiva implica la implementación de nuevos modelos de negocio, en los cuales la tecnología tiene un papel fundamental como recurso principal para acelerar los cambios a gran escala. La conciencia está aumentando de manera exponencial y la gran potencia de la IA radica en su capacidad para analizar una cantidad ilimitada de datos para respaldar a los humanos en la toma de decisiones mucho más rápidas. La humanidad ahora ha comprendido que solo quedan unos pocos años para actuar y las empresas no tienen más opción que encontrar soluciones con urgencia para alinearse en esta lucha.

dimitri

IA, Experiencia del Cliente y Sostenibilidad. Más de 10 años de consultoría para grandes grupos, principalmente en el sector de servicios (banca, lujo, FMCG, energía, telecomunicaciones), startups, Shifter en el Shift Project.

¿Qué le llevó a interesarse en los temas de IA?

He trabajado para grandes empresas como Hewlett Packard, General Electric y SFR en proyectos estratégicos antes de lanzar mi firma de consultoría, Livosphere, centrada en nuevas tecnologías. Lo que me motiva es anticipar los cambios profundos que traen consigo las tecnologías, especialmente la IA: ¿cuáles son sus posibilidades? ¿Cómo transforma nuestra sociedad?

Durante los últimos 3 años, me he comprometido mucho más en los temas climáticos y ambientales, incluida la sobriedad digital. He escrito un libro, “2050: Crash o Renacimiento”, en el que explico cómo adaptar nuestra sociedad a los desafíos climáticos teniendo en cuenta esta dimensión tecnológica. En él desarrollo lo que la IA permite, pero también los riesgos y desviaciones que conlleva.

¿Cómo ve la evolución de la IA y su impacto en nuestras vidas?

En un artículo escrito hace algunos años, «Nunca sin mi iLad», explicaba en un relato cómo la IA podría normalizar nuestros comportamientos. A través de un fenómeno de autorreferencia, confiaremos cada vez más en las IA que podrán predecir mejor nuestro futuro, ya que preferiremos seguir su consejo en lugar de cometer errores. Corremos el riesgo de perder nuestro sentido de la iniciativa, la capacidad de superar fracasos y la creatividad. La vida sería profundamente aburrida porque podríamos predecirla fácilmente desde nuestro nacimiento.

Según usted, ¿cuáles son los principales riesgos asociados a la IA?

Hoy en día se desarrolla un miedo a que la IA nos supere y termine controlándonos. Para mí, el riesgo es más bien que, por facilidad o incluso por pereza, nos apoyemos sistemáticamente en ella. Observamos que la IA a menudo acierta y terminamos confiando siempre en ella, incluso si puede equivocarse. Es la problemática de la hipovigilancia, donde el ser humano ni siquiera verifica lo que propone la IA por exceso de confianza y deja pasar errores a veces con consecuencias dramáticas. La IA puede ser correcta el 99% de las veces, pero eso no significa que lo sea al 100%. Esto puede volverse deshumanizante porque el ser humano se convierte en un eslabón de la cadena dirigido por IA que le indican qué hacer.

¿Tiene un ejemplo de los efectos que puede causar la hipovigilancia y cómo minimizar los riesgos?

En una industria, si un operador verifica regularmente que la IA controla bien la calidad de fabricación de productos y constata que en el 99% de los casos no hay ningún problema, podría dejar pasar una pieza defectuosa que, en el caso de un vehículo, podría tener consecuencias dramáticas. Esto significa que es necesario probar la vigilancia de las personas, por ejemplo, provocando errores controlados en los procesos para asegurarse de esta hipovigilancia, pero también sensibilizar a las personas a tener un espíritu crítico frente a la IA. ¡El error sería obviamente mencionado al operador inmediatamente después!

La elección de dónde integrar la IA y los robots también es esencial. Trabajé para una empresa de marroquinería para la cual estudié la cadena de fabricación de bolsos para determinar qué tareas se podían automatizar con robots. Decidimos no robotizar ciertas operaciones repetitivas que las artesanas necesitan para reducir su carga mental, pero sí automatizamos la prueba de desgaste de los bolsos que requiere decenas de miles de movimientos repetitivos. Es indispensable integrar al ser humano cuando se introduce IA o robots en una empresa.

¿Se puede reducir el impacto energético de la IA?

Hoy en día, la fase de aprendizaje de las redes neuronales requiere mucha potencia de cálculo y datos. El Transfer Learning¹ permite reducir el impacto energético y los recursos de la IA: permite adaptar un modelo de IA genérico a cada actor según sus propias necesidades, lo que reduce considerablemente la fase de aprendizaje, la más energéticamente intensiva. En el sector automotriz, por ejemplo, los concesionarios de autopistas, las ciudades y los gobiernos pueden estar interesados en contar con una IA que pueda reconocer los diferentes modelos de vehículos a través de cámaras. En lugar de entrenar modelos de IA separados, podrían utilizar un modelo de código abierto y adaptarlo a sus propias necesidades en una segunda etapa. Esto reduciría significativamente el consumo de energía de los servidores.

¿Puede la IA, por el contrario, servir a la causa medioambiental?

Ciertos usos de la IA ayudan a reducir nuestro consumo de energía. La IA puede anticipar algunos riesgos de inundaciones, identificar el potencial de energía solar para cada techo, reducir el consumo de energía de los edificios u optimizar los desplazamientos de equipos de mantenimiento. El uso de drones con cámara térmica e IA también permite identificar qué edificios necesitan más renovación térmica debido a las fugas de calor. La IA es capaz de analizar una gran cantidad de imágenes y proporcionar soluciones precisas: por lo tanto, permite priorizar, canalizar y dirigir los flujos financieros o de recursos donde son necesarios.

En el ámbito del reporting, la IA también es una ventaja. Permite formatear datos recopilados de manera dispar por las empresas para que coincidan con el formato de informes de RSE como la CSRD², reduciendo considerablemente el trabajo administrativo. Por supuesto, es necesario verificar los datos posteriormente ya que no serán precisos al 100%.

guillemetLa IA permite a la vez priorizar, pero también canalizar y dirigir los flujos financieros o de recursos donde son necesarios.

También eres instructor en grandes escuelas, especialmente en CentraleSupelec y ESSEC. ¿Cómo son recibidos estos temas por la generación que pronto ingresará a las empresas?

Una parte de los estudiantes utilizan la IA como complemento a lo que ya saben hacer. La integran en su trabajo y tienen el enfoque correcto: comienzan el trabajo por sí mismos y lo complementan con CHAT GPT u otras herramientas de IA. También las utilizan en tareas más tediosas para hacer resúmenes, planes o investigaciones, manteniendo un espíritu crítico y verificando las fuentes y errores de la IA. Sin embargo, otra parte de los estudiantes pueden tomar las respuestas de las IA generativas como GPT-4 al pie de la letra sin asegurarse de la calidad de las respuestas y las “alucinaciones”. El riesgo, como mencioné anteriormente, es acostumbrar a los estudiantes a hacer menos esfuerzo, a no aprender a hacer las cosas por sí mismos y a pasar por alto errores evidentes de la IA.

  1. Método de IA que permite transferir los conocimientos adquiridos a partir de la resolución de problemas dados para abordar otro problema.

  2. La Directiva de Informe de Sostenibilidad Corporativa es una nueva directiva publicada por la Unión Europea que refuerza las obligaciones de informe extrafinanciero de las empresas sobre datos ESG (Medioambientales, Sociales, Gobernanza).
04 2

Chief Product Manager de OMS, Especialista en gestión de proyectos de TI, infraestructura de red, blockchain y Lean Management.

Entender la Inteligencia Artificial: ¡Una oportunidad, no una amenaza!

La Inteligencia Artificial (IA) redefine nuestro panorama profesional. Pero para aprovechar al máximo sus ventajas, es crucial comprender sus desafíos:

1La IA: una herramienta, no un reemplazo

La Inteligencia Artificial (IA) a menudo se percibe como una amenaza para el empleo y los roles tradicionales dentro de las empresas, pero esta perspectiva es una simplificación excesiva. En realidad, la mayoría de las IAs, especialmente las actualmente en uso común, están diseñadas para complementar la experiencia humana en lugar de reemplazarla. Estas IAs, típicamente calificadas como de “bajo nivel”, están especializadas y optimizadas para tareas específicas. Por ejemplo, pueden analizar rápidamente grandes volúmenes de datos, reconocer patrones o tendencias y proporcionar predicciones basadas en estos análisis.

Cependiendo de la AI, no tienen la capacidad de juicio, intuición, creatividad o empatía que caracterizan al ser humano. En lugar de ver la IA como un reemplazo, es más sensato considerarla como una herramienta avanzada que, cuando se usa correctamente, puede aumentar la eficiencia, productividad e incluso la satisfacción en el trabajo, al liberar a los humanos de tareas repetitivas y permitirles concentrarse en actividades de mayor valor añadido.

2¿Qué pasa con la privacidad de los datos?

La pregunta sobre la privacidad de los datos con la Inteligencia Artificial (IA) es central en la transformación digital de las empresas. El uso creciente de la IA para analizar, procesar y predecir a partir de datos exige una vigilancia meticulosa sobre cómo se gestionan esta información. A menudo, las IAs, especialmente aquellas ofrecidas por empresas privadas como ChatGPT u otros modelos de lenguaje, operan basándose en grandes cantidades de datos para producir resultados relevantes. Esta dependencia de los datos plantea preocupaciones legítimas: ¿quién tiene acceso a esta información? ¿Cómo se almacenan y protegen? ¿Existe el riesgo de fugas o uso malicioso? Estas preocupaciones son aún más apremiantes ya que datos sensibles o confidenciales pueden ser expuestos, intencionadamente o no, durante la interacción con estos sistemas. En este contexto, es imperativo que las empresas establezcan protocolos estrictos para la gestión de datos, sensibilicen a sus empleados sobre la importancia de la discreción y brinden formación continua sobre las mejores prácticas en seguridad de la información. El uso de IA no significa sacrificar la privacidad, pero requiere un enfoque proactivo para garantizar la protección de los datos en cada etapa.

3¿Cómo entender los problemas éticos?

La ética de la IA es un tema que trasciende la mera tecnología para abordar los valores fundamentales de nuestra sociedad. Cuando hablamos de ética en el contexto de la Inteligencia Artificial, se trata de cuestionar el uso que hacemos de estas herramientas: ¿cuáles son las intenciones detrás de su uso y qué consecuencias puede tener? La capacidad de la IA para procesar y predecir a partir de grandes conjuntos de datos puede ser tentadora para aplicaciones menos virtuosas, ya sea la manipulación de la opinión pública, el aumento de la vigilancia, la redacción de noticias falsas u otros usos que violan los derechos y libertades individuales. Además, la IA puede perpetuar involuntariamente sesgos e desigualdades existentes si se entrena con datos que reflejan estos sesgos. En este contexto, es esencial que las empresas adopten un enfoque responsable, haciendo las preguntas correctas antes de implementar una solución basada en IA. Esto también implica establecer salvaguardias para evitar cualquier desviación y comprometerse activamente en un proceso de mejora continua, teniendo en cuenta los comentarios de la comunidad y los expertos en el campo. La ética en la IA no es un lujo, sino una necesidad para garantizar un uso respetuoso y beneficioso para todos.

Así como no se le confiaría el volante de un automóvil a una persona no capacitada, no se debería permitir que los colaboradores sin la formación adecuada interactúen con, o dependan de, sistemas de IA.

4De la necesidad de formarse

La formación adecuada en Inteligencia Artificial es, sin duda, uno de los pilares que permite a una organización navegar con confianza en el paisaje digital actual. De hecho, al igual que no se le confiaría el volante de un automóvil a una persona no capacitada, no se debería permitir que los colaboradores sin formación adecuada interactúen con, o dependan de, sistemas de IA. Una formación adecuada proporciona a los empleados no solo las habilidades para utilizar eficazmente la IA, sino también una comprensión de los límites y los posibles errores de estos sistemas. Esto evita una confianza ciega, al tiempo que fomenta un uso crítico e informado. La formación en IA va más allá del simple uso: también abarca la comprensión de los problemas éticos, los riesgos en materia de privacidad y las implicaciones más amplias de la IA en el sector de actividad de la empresa. Además, al dotar a los empleados de los conocimientos necesarios, no solo se refuerza la seguridad y la eficacia de la empresa, sino que también se fomenta una cultura de innovación y adaptabilidad, esencial para la prosperidad en la era digital.

guillemetUtilizar la IA requiere un enfoque proactivo para garantizar la protección de los datos en cada etapa.

Conclusión:

La Inteligencia Artificial se vislumbra como una revolución en el mundo profesional, al igual que ya lo ha hecho en otros ámbitos. Sin embargo, como toda innovación importante, viene con sus desafíos y oportunidades. Al abrazar la IA como una herramienta valiosa y no como una amenaza, garantizando la confidencialidad de los datos, colocando la ética en el centro de nuestras acciones e invirtiendo en una formación adecuada, no solo podemos evitar los obstáculos, sino también impulsar nuestras empresas hacia nuevos horizontes. En este viaje, la clave radica en un enfoque equilibrado e informado, asegurando así un futuro donde el ser humano y la máquina trabajen en armonía para un futuro próspero.

Partager cet article :

LinkedIn
Twitter
Facebook