All news
A debate lineamientos éticos en el uso de la IA
Por:
Miguel Calderón Lelo de Larrea Colaboración Especial/Forbes |
January 17, 2019
Diversos organismos advierten que los gobiernos y las empresas deben colaborar para adaptar la educación y capacitación que combine la Inteligencia Artificial con otras disciplinas.
La inteligencia artificial (IA) es la teoría y el desarrollo de tecnologías de la información capaces de realizar tareas que normalmente requieren cierto grado de inteligencia humana, como la percepción visual, el reconocimiento de voz, la toma de decisiones y la traducción entre idiomas.
Uno de los beneficios de la IA es que puede replicar decisiones y acciones de los humanos, pero sin sus defectos, como la fatiga, la emoción y el tiempo limitado. Por ejemplo, de acuerdo con la empresa LawGeex su plataforma de IA puede revisar cinco contratos de confidencialidad en 26 segundos mientras que la misma tarea les llevó cuatro horas a cinco abogados experimentados tomando 12 tazas de café.
Otro de los ejemplos emblemáticos de IA es el usado por la plataforma de IBM llamada Watson para el diagnóstico y tratamiento del cáncer. Watson Oncología es una solución que utiliza información histórica, mejores prácticas y hallazgos en revistas y libros de texto médicos. La solución evalúa la información del registro médico de un paciente, así como la evidencia médica, la cual muestra las posibles opciones de tratamiento clasificadas por nivel de confianza. El oncólogo puede aplicar su propia experiencia para identificar las opciones de tratamiento más adecuadas.
No obstante, los beneficios y aplicaciones que se pueden encontrar en cada rama de la economía se empiezan a escuchar muchas voces de especialistas y académicos advirtiendo de riesgos en la IA.
La principal preocupación viene del campo laboral. La IA probablemente automatizará tareas en actividades predecibles y físicas. Lo que requerirá capacitar a las personas con nuevas habilidades para asumir futuras formas de trabajo. En este sentido diversos organismos advierten que los gobiernos y las empresas deben colaborar para adaptar la educación y capacitación que combine la IA con otras disciplinas. La ciencia, la tecnología, la ingeniería y las matemáticas (también conocidas como habilidades “STEM”) deben promoverse ya que son una buena base para trabajos relacionados con la IA. Muchos de los materiales de capacitación de IA ya están ampliamente disponibles a través de populares cursos masivos abiertos en línea (MOOC), con contenido gratuito y acceso instantáneo.
Otra preocupación es en competencia económica. De acuerdo con un estudio de dos investigadores de la Universidad de Berkley y Standford, la IA puede ayudar a una empresa a segmentar mucho mejor su base de clientes en grupos que pueden ser mejor atendidos, esta segmentación de clientes más refinada y personalizada plantea preocupaciones sobre la discriminación de precios – “Por ejemplo, en 2012 el Wall Street Journal informó que “Orbitz Worldwide Inc. encontró que las personas que usan … las computadoras MAC gastan 30% más por noche en hoteles, por lo que la agencia de viajes en línea está empezando a mostrarles opciones de viaje diferentes, y a veces más costosas, que las que ven los visitantes de Windows” – dice el estudio .
La OCDE ha publicado un estudio sobre IA y posibles escenarios de colusión. La preocupación radica en dos mecanismos principales a través de los cuales se pueden desafiar a los investigadores antimonopolios. En primer lugar, los algoritmos que usan las empresas generan una alta transparencia de precios y una cantidad muy alta de transacciones que puede permitir a las mismas reaccionar de manera muy rápida y agresiva. Estos cambios en los mercados digitales, llevados al límite, pueden generar estrategias colusivas en prácticamente cualquier tipo de mercado (todos los agentes pueden llegar a fijar los mismos precios por servicios similares). En segundo lugar, los algoritmos podrían permitir a empresas con poderosas plataformas automatizadas para monitorear precios, implementar políticas comunes, enviar señales de mercado u optimizar ganancias conjuntas generando los mismos resultados que los tradicionales cárteles mediante la colusión tácita.
Finalmente existen preocupaciones sobre temas éticos relacionados con la IA. Ejemplo de esto son sistemas de IA que participan en la toma de decisiones o recomendaciones automatizadas que pueden resultar directamente en la denegación de servicios o asistencia (préstamos, seguros, inscripción en educación, reclutamiento, asistencia médica, etc.); o que puedan crear un riesgo significativo de daño físico o emocional (el propio caso de Watson para diagnosticar cáncer ha tenido a sus detractores); o que creen restricciones a la libertad personal o la privacidad (en la aplicación de la ley o el actuar de la policía).
Debido a todo lo anterior, diferentes reguladores empiezan a pensar en cómo controlar estos fenómenos. La Unión Europea acaba de publicar una consulta pública sobre lineamientos éticos en el uso de la IA. El propio IFT emitió un documento para opinión pública donde propone promover un marco de buenas prácticas y recomendaciones del uso y explotación de datos mediante la identificación de tendencias y casos de uso, que establezcan claramente los principios que deben cumplirse para el uso adecuado de los datos por parte de los regulados.
Existe un consenso de todos los actores que el desarrollo de IA debe centrarse en las personas teniendo en cuenta consideraciones éticas. Los diferentes actores (gobierno, empresas, sociedad civil) deben colaborar estrechamente para responder a los problemas de transparencia, ética, rendición de cuentas y otros aspectos del desarrollo de la IA. En este sentido, generar y compartir buenas prácticas e iniciativas de auto-regulación entre empresas sería un buen inicio en México.
*Vicepresidente de Telecomunicaciones en CANIETI y Vicepresidente de Regulación y Relaciones Institucionales de Telefónica Movistar.
https://www.forbes.com.mx/a-debate-lineamientos-eticos-en-el-uso-de-la-ia/