Los modelos de lenguaje no son tan inteligentes, no hay que tener miedo a la IA. El peligro real está en los humanos que quieren hacer mal uso de ella.
En su reciente visita a México, organizada por Needed, empresa líder en el upskilling y reskilling de los equipos de grandes corporaciones. Brian Green, Director de Ética Tecnológica en el Centro de Markkula de Ética Aplicada de la Universidad de Santa Clara (Estados Unidos), se reunió con distintos líderes empresariales y academia con el objetivo de analizar el potencial del uso de la IA en las organizaciones desde la perspectiva de la ética corporativa.
En este sentido Green afirmó que “La Inteligencia Artificial tiene el potencial para hacer del mundo un lugar mejor si se usa con responsabilidad y bajo estándares éticos que analicen y castiguen las malas prácticas. Por esta razón, es esencial impulsar en los líderes de negocios de México, la educación sobre IA”.
En cuanto a los riesgos que podría representar el mal uso de la IA, el experto mencionó las fake news, la desinformación, el desempleo, el impacto ambiental, la privacidad y los fraudes, entre otras. “En el corto plazo existen peligros. Muchas cosas podrían salir mal, pero si nos enfocamos en hacer esto bien, con ayuda de la IA tendremos una gran oportunidad para crear un mejor futuro para todos. Al fin y al cabo, los modelos de lenguaje actuales, a pesar de ser complejos, no son verdaderamente inteligentes”.
Green aseguró que es importante considerar a la ética como factor clave en Inteligencia Artificial a partir de una estructura sólida. “Hay que poner atención a lo que está sucediendo en las compañías de tecnología, cómo están operando y aplicando la ética, cómo es que llevan la teoría al campo práctico y qué resultados están obteniendo. Sin embargo, cuando hablamos de ética en IA, no solo deben involucrarse las empresas, lo deben hacer en igual medida los gobiernos de cada país” y subrayo “la necesidad de que las organizaciones empiecen a pensar en la incorporación de un “Responsable del uso ético de la tecnología” si queremos aprovechar el impacto de los avances en IA en la productividad de las organizaciones. Aquellas que cuenten con esta figura, aunada a una fuerte apuesta por la ciberseguridad, serán las que tomen verdadera ventaja competitiva de la transformación digital”.
La participación del eticista Brian Green en dos universidades mexicanas fue organizada por NeedEd, aliado estratégico de empresas y organizaciones, especializada en educar, analizar, diagnosticar y dar acompañamiento en la inserción a la vida de los negocios digitales; la cual ha formado a equipos directivos en herramientas digitales para detonar productividad y competitividad.
“Desde Needed estamos convencidos de que para aprovechar las ventajas competitivas de la tecnología, los líderes han de ser verdaderos especialistas en su uso, las habilidades técnicas son indispensables pero las habilidades blandas en IA son factor clave del éxito de la transformación digital. La ética aplicada al uso de tecnología es una de las más relevantes “explica Gustavo Barcia, CEO de Needed, así como conferencista y especialista en tendencias digitales.
Los modelos de lenguaje “no son tan inteligentes”.
Al tratar el tema sobre los modelos de lenguaje actuales, Green compartió que no son tan inteligentes. “Los modelos de lenguaje son complejos, simulan la inteligencia humana y con ayuda de internet reúnen información y datos estadísticos para intentar responder de forma rápida a solicitudes. Cuando las personas hacen preguntas, estos modelos pueden responder con base en toda la data que tienen; sin embargo, no racionalizan, no tienen un cerebro como nosotros los humanos. Dichos modelos de lenguaje parecen inteligentes y de alguna manera lo son al arrojar resultados más rápidos que los humanos; pueden saber más de lo que un humano podría, pero la realidad es que no están entendiendo nada de lo que hacen”, explica el eticista de tecnología que también cuenta con un doctorado del Graduate Theological Union en Berkeley, California.
“Para ser sincero, no temo a la IA, temo a las personas que la usan o quieren usarla para malos propósitos. Por eso, hoy más que nunca, debemos ser más severos al momento de castigar las malas prácticas”. Asimismo, Green indicó que es necesario generar fuentes confiables de información para que las personas, empresas y gobiernos consulten temas sobre ética para una mejor toma de decisiones.
5 pasos para ser una compañía de IA éticamente responsable
Brian Green compartió los 6 pasos que deben seguir las empresas para ser éticamente responsables con la creación de IA:
- Compromiso. Los directivos deben comprometerse e involucrarse con la ética en IA, desde managers hasta CEOs, todos los que tengan un rol de liderazgo.
- Diagnóstico. Analizar dónde se encuentra ahora la empresa y preguntarse si existe realmente la cultura ética en la compañía.
- Estrategia y plan de acción. Descubrir hacia dónde quiere ser dirigida la empresa al implementar una cultura ética en IA.
- Talento / habilidades. Contar con un responsable de uso ético de la tecnología y contar con planes de upskilling y reskilling de aplicación ética de la IA. La ética debe estar integrada en las prácticas organizacionales para que se utilice con regularidad y coherencia.
- Medición y mejora continua.
Green ha sido uno de los contribuyentes principales en estudios de casos sobre ética realizados por el Foro Económico Mundial en Microsoft, Salesforce e IBM. Además, colabora con el Dicasterio para la Cultura y la Educación del Vaticano y con empresas tecnológicas que van desde startups hasta las más grandes. Es autor de Space Ethics (2021), coautor de Ethics in the Age of Disruptive Technologies: An Operational Roadmap (El Manual ITEC) (2023), coautor de Ethics in Technology Practice (2018), autor colaborador en Encountering AI: Ethical and Anthropological Investigations (2023), coeditor de Religious Transhumanism and Its Critics (2022) y coeditor de un número especial.