13.9 C
Buenos Aires
viernes 30 de julio de 2021
Cursos de periodismo

Adelanto de «Nueve gigantes», de Amy Webb

Durante mucho tiempo pensamos que el futuro estaba lejos o sería parecido a la ciencia ficción. Sin embargo, lo que parecía improbable ya rige la vida de millones de personas mediante algoritmos e inteligencia artificial. Creemos que controlamos los sistemas con los cuales interactuamos (teléfonos, redes sociales, mensajería instantánea), pero en realidad no tenemos dominio sobre ellos.

Nueve corporaciones (Amazon, Google, Facebook, Tencent, Baidu, Alibaba, Microsoft, IBM y Apple) han concentrado los mayores desarrollos tecnológicos y estamos a merced de ellas, sin que haya regulación que valga. No obstante, estos nueve gigantes no son los villanos; de hecho, según la autora, son nuestra mejor esperanza para el futuro.

La inteligencia artificial está tomando rumbos inesperados, razón por la cual este libro propone un enfoque estratégico para encararla y entender lo que significa esta nueva realidad para la humanidad.

A continuación, un fragmento a modo de adelanto:

 

El algoritmo de los valores
¿Alguna vez se ha preguntado por qué los sistemas de IA no son más transparentes? ¿Ha pensado cuáles son los conjuntos de datos que se utilizan, incluidos sus propios datos personales, para ayudar a la IA a aprender? ¿En qué circunstancias se le enseña a la IA a hacer excepciones? ¿Cómo hacen los creadores de estas para que haya un equilibrio entre la comercialización de la IA y los deseos humanos fundamentales como la privacidad, la seguridad, el sentido de pertenencia, la autoestima y la autorrealización? ¿Cuáles son los imperativos morales de la tribu de la IA? ¿Cuál es su sentido del bien y del mal? ¿Enseñan empatía a la IA? (Y ya que estamos en eso: ¿el hecho de intentar enseñarle a la IA la empatía humana es una ambición útil o que valga la pena?).

Cada uno de los nueve gigantes ha adoptado oficialmente un conjunto de valores, pero estas declaraciones de valores no responden a las preguntas anteriores. Esos valores declarados son creencias muy arraigadas que unen, inspiran y animan a los empleados y a los accionistas. Los valores de una empresa actúan como un algoritmo, es decir, como un conjunto de reglas e instrucciones que influyen en la cultura corporativa y el estilo de liderazgo, además de desempeñar un papel importante en todas las decisiones tomadas, en lugares que van desde la sala de juntas hasta las líneas de código individuales. De modo similar, es notable la ausencia de ciertos valores declarados, porque su invisibilidad hace que se olviden con facilidad.

Originalmente, Google funcionaba bajo un simple valor fundamental: “No seas malo” (“Don’t be evil”)[1]. En su oferta pública inicial de acciones de 2004, los fundadores —Sergey Brin y Larry Page— escribieron: “Eric [Schmidt], Sergey y yo tenemos la intención de administrar Google de manera diferente, aplicando los mismos valores de nuestra pequeña compañía privada en la compañía del futuro, que cotiza en bolsa […]. Apuntaremos a una optimización en el largo plazo en lugar de intentar obtener ganancias regulares en cada trimestre. Daremos nuestro apoyo a proyectos seleccionados de alto riesgo y de altos beneficios, y administraremos nuestro portafolio de proyectos […]. Seremos fieles a nuestro principio de no ser malos, manteniendo la confianza de los usuarios”.

Los “principios de liderazgo” de Amazon están bien imbricados en su estructura de gestión, y el núcleo de estos valores gira en torno a la confianza, las mediciones, la velocidad, la frugalidad y los resultados. Entre sus principios publicados se cuentan los siguientes:

•         “Los líderes comienzan con el cliente y trabajan para él. El objetivo de su trabajo es ganar y mantener la confianza del cliente”.

•         “Los líderes tienen estándares muy altos”, que las personas ajenas a la compañía pueden considerar como “exageradamente altos”.

•         “Muchas decisiones y acciones son reversibles y no requieren un estudio detallado. Valoramos la toma de riesgos calculada”.

•         “Hacer más con menos. No damos puntos extra por aumentar la fuerza laboral, el tamaño del presupuesto o los gastos fijos”.

Facebook enumera cinco valores fundamentales, que incluyen “ser audaz”, “enfocarse en el impacto”, “moverse rápidamente”, “estar abierto” a lo que hace la empresa y “crear valor” para los usuarios.

Por otro lado, la “filosofía gerencial” de Tencent favorece “la supervisión y el estímulo de los empleados para que tengan éxito” sobre la base de “una actitud de confianza y respeto” y en la toma de decisiones que se inspira en la fórmula “Integridad + Proactividad + Colaboración + Innovación”.

Por su parte, en Alibaba el “interés constante por satisfacer las necesidades de nuestros clientes” es primordial, al igual que el trabajo en equipo y la integridad.

Si dibujáramos un diagrama de Venn de los valores y principios operativos de los nueve gigantes, veríamos que algunas de las áreas clave se solapan. Todas estas compañías esperan que sus empleados y sus equipos busquen un mejoramiento profesional constante, que creen productos y servicios de los que no puedan prescindir los clientes y que les muestren resultados a los accionistas. Lo más importante de todo es que valoran la confianza. Esos valores no son excepcionales. De hecho, se parecen a los de la mayoría de las empresas estadounidenses.

Dado que la IA busca ejercer un gran impacto en toda la humanidad, los valores de los nueve gigantes deberían ser explícitamente detallados, y nosotros deberíamos exigirles muchísimo más a estas que a otras compañías.

Falta que se produzca una declaración fuerte en el sentido de que la humanidad debería ser el fundamento y el núcleo del desarrollo de la IA y que todos los esfuerzos futuros de esta deberían concentrarse en mejorar la condición humana. Esta idea se debe expresar de manera explícita, y las palabras para hacerlo deben estar presentes en otros documentos de la compañía, en reuniones ejecutivas, en los equipos que trabajan en la IA y en reuniones de ventas y marketing. Entre los ejemplos de esos valores encontramos valores tecnológicos que van más allá de la innovación y la eficiencia, como la accesibilidad: millones de personas tienen capacidades diferentes o tienen dificultades para hablar, escuchar, ver, escribir, comprender y pensar. También están los valores económicos, como el poder de las plataformas para crecer y distribuir bienestar material, sin privar a los individuos o grupos de su derecho al voto. Igual ocurre con los valores sociales, como la integridad, la inclusión, la tolerancia y la curiosidad.

Mientras escribía este libro, el director ejecutivo de Google, Sundar Pichai, anunció que Google había escrito un nuevo conjunto de principios fundamentales que rigen el trabajo de la compañía en materia de IA. No obstante, estos principios se quedaron cortos, pues no definieron a la humanidad como el corazón del trabajo futuro de Google en materia de IA. El anuncio no formaba parte de una realineación estratégica de los valores fundamentales de la compañía. Fue, más bien, una medida reactiva en respuesta a una crisis interna relacionada con la debacle del Proyecto Maven, y a un incidente privado acaecido un poco antes. Un grupo de ingenieros informáticos de alto nivel descubrió que un proyecto en el que estaban trabajando (una medida de seguridad para sus servicios en la nube), estaba destinado a ayudar a Google a obtener contratos con el Ejército. Tanto Amazon como Microsoft habían obtenido certificados de alto nivel para una nube gubernamental físicamente aparte, lo que los autorizaba a mantener datos ultrasecretos. Google quería competir para obtener contratos lucrativos con el Departamento de Defensa, y cuando los ingenieros se enteraron, manifestaron su rechazo. Esta fue la rebelión que condujo a que el 5% de los empleados de Google denunciara públicamente el caso Maven.

Así comenzó una ola de protestas que arrancó en serio en 2018, cuando algunos miembros de la tribu de la IA se dieron cuenta de que su trabajo se utilizaba para una causa que no apoyaban, razón por la cual exigían un cambio. Habían dado por cierto que sus valores personales se veían reflejados en la compañía, y protestaron al ver que la realidad era otra. Esta es una ilustración de los intensos desafíos a los que debe hacer frente la GMAFIA cuando no cumple con unos estándares más altos que los que esperaríamos ver en otras compañías, cuyos productos no son tan monumentales.

Debido a estos hechos, no es de extrañar que una parte importante de la declaración de principios sobre la IA de Google hiciera una mención específica a las armas y el trabajo militar: Google no creará tecnologías bélicas cuyo objetivo principal sea hacer daño a las personas; no creará IA que viole los principios ampliamente aceptados del derecho internacional, etc. “Queremos dejar claro que, aunque no desarrollamos IA para uso bélico, continuaremos trabajando con los gobiernos y el Ejército”, según declara el documento.

Google tiene el mérito de haber afirmado que los principios aspiran a ser normas concretas, en lugar de conceptos teóricos, y trata específicamente el problema de los sesgos injustos en los conjuntos de datos. Ahora bien, ninguna parte del documento menciona la transparencia en la forma en que la IA toma sus decisiones o cuáles conjuntos de datos se utilizan. En ningún punto se aborda el problema de las tribus homogéneas de Google que trabajan en IA. Ninguno de esos estándares concretos pone los intereses de la humanidad por delante de los de Wall Street.

El problema es la transparencia. Si el gobierno de los Estados Unidos no puede crear los sistemas necesarios para nuestra seguridad nacional, es de esperar que contrate a una empresa que sí pueda hacerlo, y así ha ocurrido desde la Primera Guerra Mundial. Olvidamos con mucha facilidad que la paz es un objetivo en el que debemos trabajar constantemente y que un ejército bien preparado es lo que garantiza nuestra seguridad nacional. El Departamento de Defensa no está sediento de sangre, y no quiere armas superpoderosas con tecnología de IA para destruir pueblos remotos en el extranjero. El Ejército de los Estados Unidos tiene objetivos que van mucho más allá de matar a los villanos y de hacer estallar cosas. Este es un asunto que no han comprendido bien quienes trabajan en la GMAFIA y la razón es que no se ha hecho de manera adecuada el puente entre Washington y Silicon Valley.

A todos debería darnos que pensar el hecho de que los nueve gigantes construyan sistemas que cuentan con la participación de la gente, y que los valores que expresan nuestras aspiraciones de mejorar la calidad de la vida humana no estén codificados explícitamente. Si los valores tecnológicos, económicos y sociales no forman parte de la declaración de valores de una empresa, es poco probable que los mejores intereses de toda la humanidad sean una prioridad durante los procesos de investigación, diseño y despliegue.

Esta brecha de valores no siempre es evidente dentro de una organización, lo que representa un riesgo significativo tanto para la GMAFIA como para el grupo BAT, ya que aleja a los empleados de las posibles consecuencias negativas de su trabajo. Cuando los individuos y los equipos no son conscientes de la brecha de valor, no abordan los temas primordiales durante el proceso de desarrollo estratégico o durante la ejecución; cuando los productos se fabrican, se prueban para garantizar la calidad, se promocionan, se lanzan y se ofrecen en el mercado. Esto no quiere decir que las personas que trabajan en la IA carezcan de compasión, pero sí significa que no consideran como una prioridad nuestros valores humanistas fundamentales.

Y así terminamos con el cuerpo lleno de cortes hechos con papel.

La ley de Conway
La informática, al igual que todas las áreas de la tecnología, refleja las visiones de mundo y las experiencias del equipo que trabaja en la innovación. Lo mismo ocurre fuera del ámbito de la tecnología. Alejémonos por un instante del tema de la IA y veamos dos ejemplos aparentemente no relacionados sobre cómo una pequeña tribu de individuos puede ejercer un poder considerable en toda una población.

Si el lector tiene el cabello liso (ya sea grueso, delgado, largo o corto) su experiencia en una peluquería es radicalmente diferente a la mía. Sin importar si va a un salón de belleza local, a una peluquería de cadena en un centro comercial o a un salón de alta gama, lo que ocurre es que le lavan el pelo en un pequeño lavacabezas; luego, el peluquero o estilista usa un peine fino para alisar el cabello y cortarlo en líneas rectas y uniformes. Si el lector tiene mucho pelo, el estilista puede usar un cepillo y un secador, para peinar cada mechón hasta obtener la forma deseada: curva y voluminosa, o plana y suave. Si lleva el pelo corto, el peluquero utilizará un cepillo más pequeño y el tiempo de secado será más breve, pero el proceso será esencialmente el mismo.

Mi cabello es extremadamente rizado, de textura fina y muy abundante. Se enreda fácilmente y responde de manera impredecible a los factores ambientales. Dependiendo de la humedad del ambiente, de mi nivel de hidratación y de los productos que he usado últimamente, mi cabello puede enrollarse en rizos pequeños o puede ser un enredo total. En una peluquería típica, incluso en esas donde el lector nunca ha tenido problemas, el lavacabezas me causa complicaciones. La persona que me lava el pelo suele necesitar mucho más espacio, y algunas veces mis bucles se enredan accidentalmente en la manguera, lo que conlleva dolor y una complicación adicional. La única manera de peinarme normalmente ocurre cuando tengo el pelo mojado y totalmente untado de un acondicionador espeso (ni hablar del uso del cepillo). La fuerza de un secador de pelo normal haría que mis rizos se convirtieran en un nudo. En algunas peluquerías tienen un accesorio especial que reparte el aire de otro modo: se parece a un recipiente de plástico en el que sobresalen unas protuberancias con forma de jalapeño. Sin embargo, para usarlo correctamente, el estilista debe ponerse en cuclillas.

Alrededor del 15% de las personas de raza caucásica tienen el pelo rizado. Si mezclamos esta franja con la población negra o afroamericana de los Estados Unidos, obtenemos 79 millones de personas. Eso quiere decir que aproximadamente una cuarta parte de la población estadounidense tiene problemas para cortarse el pelo, porque, en efecto, podemos deducir que las herramientas y los entornos relacionados con el cuidado del cabello fueron diseñados por personas con el pelo liso, que no priorizaron valores sociales tales como la empatía y la inclusión dentro de sus empresas.

El anterior ejemplo es relativamente insustancial. Ahora considere el lector una situación en la que las consecuencias son un poco más significativas que en el caso de las peluquerías. En abril de 2017, los agentes de embarque de un vuelo sobrevendido de United Airlines hicieron, en el Aeropuerto Internacional O’Hare, en Chicago, un llamado por altavoz para pedir a los pasajeros ceder su puesto a unos empleados de la aerolínea, por una compensación de 400 dólares y una habitación gratis en un hotel cercano. Nadie aceptó la oferta. Los miembros de la aerolínea subieron la oferta a 800 dólares más la habitación del hotel, pero tampoco en esta ocasión obtuvieron el resultado esperado. Mientras tanto, los pasajeros prioritarios ya habían comenzado a abordar, incluidos los que habían reservado asientos en primera clase.

Un algoritmo y un sistema automatizado seleccionaron a cuatro personas, entre las cuales se encontraban el médico David Dao y su esposa, que también es médica. Él respondió a la aerolínea desde su asiento, explicando que tenía pacientes programados al día siguiente. Los otros dos pasajeros aceptaron bajarse, pero Dao se negó a irse. Los funcionarios de aviación en Chicago amenazaron a Dao diciéndole que podría ir a prisión si no se movía. Tal vez el lector sepa lo que ocurrió a continuación, porque el video que captó el incidente se hizo viral en Facebook, YouTube y Twitter, y luego se retransmitió durante varios días en las redes de noticias de todo el mundo. Los funcionarios que participaron del incidente agarraron a Dao de los brazos y lo sacaron a la fuerza del asiento. Al hacerlo, lo golpearon con el apoyabrazos, le quebraron los anteojos y le rompieron la boca. Dao, con la cara cubierta de sangre, dejó de gritar cuando los funcionarios lo sacaron a rastras por el pasillo del avión de United. El incidente traumatizó a Dao y a otros pasajeros, lo que dio pie a un escándalo que se convirtió en una pesadilla de relaciones públicas para United. El asunto finalmente llegó hasta el Congreso. La pregunta que todo el mundo se hacía era: ¿cómo era posible que algo así sucediera en los Estados Unidos?

En casi todas las aerolíneas del mundo, incluida United, el procedimiento de embarque está automatizado. En Southwest Airlines, que no crea asignación de asientos, sino que les da a los pasajeros un grupo (A, B o C) y un número, toda esta clasificación se realiza mediante algoritmos. Los lugares prioritarios en la fila se asignan en función del precio pagado por el pasaje, de la calidad de viajero frecuente del pasajero y de la fecha de compra del pasaje. Otras aerolíneas que cuentan con asientos asignados previamente ubican a estos pasajeros en grupos prioritarios, que también se asignan mediante un algoritmo. Cuando llega el momento de subir al avión, los empleados de la puerta siguen una serie de instrucciones que se les presentan en una pantalla: se trata de un proceso diseñado para ser seguido estrictamente y sin desviaciones.

Asistí a una reunión de la industria del transporte en Houston unas semanas después del incidente de United, y les pregunté a altos ejecutivos de tecnología qué papel podría haber jugado la IA. Mi hipótesis: la toma de decisiones algorítmicas dicta un conjunto de pasos predeterminados para resolver la situación, sin tener en cuenta el contexto. El sistema decidió que no había suficientes asientos, calculó el monto de la compensación que se ofrecería inicialmente y, en ausencia de una solución, recalculó la compensación. Cuando se presentó el caso de un pasajero que no aceptó esta situación, el sistema recomendó llamar a la seguridad del aeropuerto. Los miembros del personal involucrados obedecieron ciegamente las instrucciones de la pantalla, es decir, obedecieron ciegamente a un sistema de IA no planeado para ser flexible, ni para tener en cuenta las circunstancias o la empatía. Los gerentes técnicos, que no eran empleados de United, no negaron el verdadero problema: el día que sacaron a Dao del avión, el personal humano cedió su autoridad a un sistema de IA diseñado por un grupo relativamente pequeño de individuos que tal vez no pensó mucho en los posibles escenarios futuros en los cuales se usaría el sistema.

Las herramientas y los entornos en las peluquerías y en las plataformas con las que funciona la industria del transporte aéreo son ejemplos de lo que se conoce como la ley de Conway, según la cual, en ausencia de reglas y de instrucciones precisas, las elecciones que hacen los equipos tienden a reflejar los valores implícitos de su tribu.

En 1968, el programador de computadoras y profesor de matemáticas y física Melvin Conway observó que los sistemas tienden a reflejar a las personas que los crearon y sus valores. Conway observó específicamente cómo las organizaciones se comunican internamente, pero estudios posteriores de Harvard y del MIT probaron su idea de una manera más amplia. Harvard Business School analizó diferentes bases de código, fijándose en el software diseñado para el mismo propósito, pero por diferentes tipos de equipos: aquellos que estaban estrechamente controlados y aquellos que eran más ad hoc y con código abierto.

Estas fueron sus principales conclusiones: las opciones de diseño provienen de la forma como están organizados los equipos y, dentro de estos equipos, los prejuicios y los sesgos tienden a pasarse por alto. El resultado es que una pequeña red de personas compuesta por equipos tiene un enorme poder una vez que el trabajo (ya se trate de un peine, un lavamanos o un algoritmo) empieza a ser usado por el público.

La ley de Conway se aplica a la IA. Desde el principio, cuando los primeros filósofos, matemáticos e inventores de autómatas debatieron sobre la mente y la máquina, no ha habido un conjunto único de instrucciones y reglas, ningún algoritmo de valor que describa la motivación y el propósito que ha de asignarles la humanidad a las máquinas pensantes. Ha habido una divergencia en el enfoque que se da a la investigación, a los frameworks y a las aplicaciones, y hoy existe una brecha entre las rutas de desarrollo de la IA en China y en Occidente. Por lo tanto, la ley de Conway sigue vigente, porque los valores de la tribu, sus creencias, actitudes y comportamientos, así como sus sesgos cognitivos ocultos, están muy arraigados.

La ley de Conway es un punto ciego para los nueve gigantes, porque hay cierto carácter hereditario en la IA. Por ahora, los humanos siguen tomando decisiones en cada etapa del desarrollo de la IA. Sus ideas personales y la ideología de su tribu son las que se transmiten en el ecosistema de la IA, desde las bases de código y los algoritmos hasta los frameworks, el diseño de hardware y las redes. Si usted (o una persona cuyo idioma, sexo, raza, religión, política y cultura son iguales a los suyos) no se encuentra en la habitación donde están ocurriendo estas cosas, puede apostar a que cualquier cosa que se construya allí no reflejará a la persona que usted es. Este no es un fenómeno exclusivo del campo de la IA, porque la vida real no es una meritocracia. Las conexiones y las relaciones, sin importar cuál sea el sector, son las que conducen a la financiación, a los nombramientos, a las promociones y a la aceptación de ideas nuevas y audaces.

He visto de primera mano los efectos negativos de la ley de Conway en más de una ocasión. En julio de 2016, fui invitada a una mesa redonda sobre el futuro de la IA, la ética y la sociedad. El evento se llevó a cabo en el New York Yankees Steakhouse, un restaurante de carnes en Midtown Manhattan. Éramos veintitrés personas, sentadas en un espacio al estilo de una sala de juntas, y nuestro programa consistía en debatir y discutir algunos de los impactos sociales y económicos más apremiantes de la IA para la humanidad, con un enfoque particular en los temas de género, raza y sistemas de IA para el cuidado de la salud.

Sin embargo, las mismas personas sobre las que estábamos hablado no formaban parte de la lista de invitados. En la sala había dos personas de color y cuatro mujeres, dos de las cuales eran miembros de la organización que había organizado el evento. Ni uno solo de los invitados tenía formación profesional o académica en ética, filosofía o economía del comportamiento. No fue una omisión intencional, según me dijeron los organizadores, y les creo. Sencillamente nadie se dio cuenta de que el comité había invitado a un grupo de expertos compuesto principalmente por hombres blancos.

Éramos los mismos de siempre, y nos conocíamos personalmente o debido a nuestra reputación. Conformábamos un grupo de investigadores líderes en ciencias de la computación y neurociencia, asesores de políticas para la Casa Blanca y altos ejecutivos del sector de la tecnología. Durante toda la noche, el grupo usó solo pronombres femeninos para hablar en general sobre todas las personas, un tic léxico de moda, especialmente en el sector de la tecnología y entre los periodistas que cubren el tema de tecnología.

Aquella noche no escribimos ningún código o política juntos. No estábamos probando ningún sistema de IA ni conceptualizando algún producto nuevo. Era una simple cena. Sin embargo, en los meses siguientes, vi que algunos hilos de nuestra conversación aparecían en artículos científicos, en resúmenes de políticas e incluso en conversaciones informales que sostuve con investigadores de los nueve gigantes. Mientras disfrutábamos de filetes y ensaladas, nuestra red cerrada de expertos en IA generó ideas matizadas sobre ética y la IA que se extendieron por toda la comunidad, ideas que no podían ser totalmente representativas de las personas a las que supuestamente debían representar. Montones de pedacitos de papel.

La celebración de reuniones, la publicación de artículos y el patrocinio de mesas redondas para discutir el problema de los desafíos tecnológicos, económicos y sociales de la IA no harán que las cosas cambien si no se adopta una visión más amplia y se lleva a cabo una concertación respecto de lo que debería ser nuestro futuro. Debemos resolver el problema de la ley de Conway y actuar con prontitud.


Nueve gigantes
Un plan concreto para frenar las ambiciones de los 9 gigantes tecnológicos que gobiernan el mundo y recuperar el control de nuestro destino.
Publicada por: Paidós
Fecha de publicación: 06/01/2021
Edición: 1a
ISBN: 978-950-12-9855-0
Disponible en: Libro de bolsillo
 

 

Contenido Premium

- Publicidad -

Lo último