Sin lugar a duda, en nuestros encuentros diarios con smartphones (que según dicen, revisamos más de 200 veces al día), encontramos amplias gratificaciones: mantenemos amistades a distancia con suma facilidad; compartimos la vida de otros a través de Instagram; tenemos a la mano fuentes ilimitadas de información. 

Por: Kyle S Passarelli
Fundador Xoom

También en nuestros dispositivos dedicamos mucho tiempo a pequeñas trivialidades como memes, o cosas que nos enfurecen (Trump, Jimmy), en plataformas optimizadas para maximizar el impacto fugaz de estas emociones.

Y así, aún cuando detectamos falsedad en perfiles de Instagram meticulosamente curados, seguimos dando “likes”. Espiamos a plena vista a personas que conocemos, sin ningún temor a ser detectados. Sabemos que estos comportamientos no trasladan bien al mundo real, sin embargo los consideramos una parte inofensiva de nuestra vida online.

Estos son indicios de la cara fea del Internet, que se sigue volteando: información se recopila y se vende; comentarios misóginos o racistas proliferan, noticias falsas, semi-verdades. Porque en el mundo en línea, un click vale un click, y un like vale un like, sin importar veracidad, ética, privacidad.

Habiendo desatado esto, Silicon Valley vive ahora (públicamente, por supuesto) una ola de auto-análisis y flagelación sobre sus prácticas.

“Lo siento”, dice Mark Zuckerberg, frente al Congreso de Estados Unidos. “¡Quién sabe qué está haciendo esto para el cerebro de nuestros niños!”, se pregunta Sean Parker, primer presidente de Facebook. El Internet aparentemente ya no es solo una infinita oportunidad para la humanidad: es un arma potencialmente destructiva en manos de todos y cada quien.

Ayer a mi teléfono llegó el siguiente mensaje: “Actualiza tu sistema a Android 9. [Esta versión] trae el poder de la inteligencia artificial para darte mejor provecho de tu teléfono. Ahora es más inteligente…”

Me pareció interesante que se me vendiera la nueva conciencia de mi teléfono. (Como que mi  “smartphone” que ahora sí se volvería “smart”.) Pero también me maravillé de cómo la Inteligencia Artificial, aquella tecnología que Hollywood lleva décadas haciéndonos temer, salió como el bueno de la historia. Está curiosamente ausente del discurso de apología de Silicon Valley.

Hay razón para ser escéptico de este mensaje: hasta cierto punto, la I.A. podría ser el tiro de gracia para la privacidad personal y la verdad, otra caja de pandora que debería estar en el interés público mantener cerrada.

Después de todo, Machine Learning –siendo esta la implementación real detrás del término mercadológico que es IA– es una herramienta de propósito general sumamente poderosa. A su alrededor hay un frenesí de desarrollo no visto desde –interesantemente– los primeros días del Internet.

Dada su singular habilidad para condensar un torrente de información en algunas pocas pero valiosas conclusiones, Machine Learning puede identificarte como miembro de un grupo específico, como amante del café, del death metal, de izquierda o derecha; y de igual manera como persona vulnerable, adinerada, deprimida, abusadora, o corrupta. Si se le pregunta, puede inferir nuestros ingresos y gastos, y predecir cuándo vamos a comprar nuestro propio viaje y a dónde será.

La IA no olvida nada, y ningún detalle es demasiado pequeño. Nunca incorpora la ética, solo “la verdad.” (Para programadores un tanto literales, estas cosas se relegan al fondo o como difíciles de implementar.) Es fácil imaginar al siguiente Vladimir Putin potenciado con la permisividad de usuarios que no piensan dos veces en aceptar “IA” en su vida diaria. Yo lo acepté, al actualizar mi teléfono.

Pero no tiene que ser así. La misma capacidad para obtener conclusiones se puede utilizar para bien, como en detección de cáncer. El centro de cáncer de Sloan Kettering, con tecnología de IBM, ha logrado salvar vidas a través de visión computarizada. El apuntar esta tecnología a un problema socialmente productivo es un buen comienzo.

Pero simplemente esto no es suficiente: también debemos exigir que dos desarrollos paralelos sean parte del paquete: la IA Entendible y la IA Anonimizado. 

Aun cuando utiliza datos, sí es posible hacer análisis con IA sin comprometer la privacidad.

En casos donde anonimización de data no es posible (recomendaciones personales, etc.), se puede exigir transparencia en el algoritmo, volviéndolo “entendible”. 

Antes de acceder a donar nuestros datos a la ciencia de la IA, deberíamos hacernos las preguntas: ¿Es entendible? Y ¿Es anónimo?. De lo contrario, solo nos queda esperar la siguiente apología, esta vez amplificada, de parte de Silicon Valley.

Deja tu comentario
[]).push({});

Artículos Relacionados