Justo cuando nos encontramos en el centro de una discusión nacional que hace pesar una división casi perfecta, es decir, la mitad abogando por una causa y la otra mitad abogando por la otra, recordamos lo disímil que es la concepción de problemas nacionales coyunturales, pero, si nos vamos más allá en la historia, tendríamos que existen visiones distintas del planeta desde posiciones antropológicas diversas.
En temas relevantes que aquejan a la humanidad desde hace mucho tiempo, encontraremos versiones encontradas, opiniones diversas y poca falta de consenso, sobre todo cuando se trata de aspectos morales que, de alguna manera le dan origen a ciertas normas sociales como el génesis de la consideración respecto si algo es bueno o malo.
Enfrentados históricamente
La discriminación racial, la permisión o no de la migración, la propia religión que ha sido ocasión para alimentar conflictos mundiales severos, las concepciones de belleza y ética en general, son temas en donde los grupos sociales se han confrontado históricamente sin llegar a acuerdos y manteniendo más o menos vehementemente su postura por muchos argumentos en contra que se viertan.
Hoy nos encontramos frente al enorme avance tecnológico que ha dado origen a la Inteligencia Artificial que, para los expertos como mercadólogos, publicistas y de más especialistas, es la orquestadora de herramientas o aspectos derivados como la Personalización Publicitaria y el Machine Learning.
La publicidad fantasma
Cuantas veces no hemos estado conversando por WhatsApp respecto la necesidad de adquirir un nuevo vehículo y, a la primera revisión de nuestras redes sociales, encontramos un cúmulo de anuncios de agencias de vehículos cercana a nuestra zona ofertándonos vehículos nuevos, seminuevos y de todo tipo con la esperanza de que ese simple deseo se convierta en una realidad derivado de la personalización en donde la publicidad dejó de ser masiva para ser directa para el consumidor aprovechando los datos vertidos en una conversación casual.
Por otro lado, en aquellas aplicaciones de inteligencia artificial que nos detalla datos, nos hace resúmenes, nos explica conceptos y nos clarifica ideas, se dice que en la medida en que nosotros alimentemos a esos escenarios virtuales se robustecerá aún más la información para ser más precisa, autogenerándose una y otra vez como si se tratara de un Pac-Man que en la medida que va comiendo se va haciendo más grande.
Inteligencia más inteligente
Hemos llegado al grado de pensar y de los especialistas explicarnos, que ello puede tener un escenario de autonomía bastante relevante, ya que una inteligencia artificial puede estar tan alimentada que ella misma se irá generando conocimiento acaparando cada vez más datos y propiciando ser, incluso, más inteligente que muchos de los seres humanos.
Ahora bien, como estamos revisando aspectos jurídicos de este tipo de cosas es cuando aparezco de aguafiestas. Si algo somos los seres humanos dentro de una sociedad es discriminadores, mentirosos, calculadores de estereotipos y con claras tendencias políticas y económicas de las cuales no nos podemos desprender, es decir, somos los reyes de la subjetividad sin importar si se trata del día a día o de la construcción epistemológica.
Tan mal como el creador: Frankenstein digital
Entonces, la Inteligencia Artificial, de alguna manera, está hecha a nuestra imagen y semejanza por el simple hecho de que es una persona o un grupo de ellas quienes le dieron vida y una multitud de personas quienes la alimentan paulatinamente y, por lo tanto, estamos volcando ahí todas nuestras más oscuras costumbres, haciendo falible este tipo de aplicaciones. A este tipo de circunstancias se le llama sesgo algorítmico, ya que con la información que se tiene se genera un resultado no de acuerdo a lo que esperamos.
Ello jurídicamente tiene aspectos graves, ya que, por un lado, si ustedes se valen de esos algoritmos para poder desarrollar sus mensajes publicitarios y llegar de forma más precisa con las personas de acuerdo a su preferencias obtenidas de datos de sus propias redes y consumo de datos informáticos, puede darse el caso de que enviemos un mensaje discriminatorio o estereotipante que pueda generar un problema no sólo con el probable consumidor, sino una cuestión de fondo que termine en tribunales sin poder argumentar que se trata de un algoritmo, ya que, en esos casos puede alegarse que forma parte de la marca.
Por otro lado, surge nuevamente la posibilidad de la impartición de justicia a través de la inteligencia artificial como ya sucede con algún software que emiten resoluciones a partir de la información del caso y de los precedentes en materia jurídica como pasa en los EUA, de tal manera que se empata la sentencia al caso concreto al encontrar similitudes con uno ya resuelto. Al respecto, como ya lo he manifestado antes, quienes imparten justicia son seres humanos que contienen un sesgo precisamente, lo cual puede repetirse en una inteligencia artificial, de tal manera que puede discriminar personas afrodescendientes como ya ha sucedido en casos de conducta criminal, dando un trato diferenciado en función de la raza de que se trate.
Este tipo de sesgos puede, sin duda, tener repercusiones jurídicas para quien ostente el algoritmo, por lo tanto, es preciso hacer auditorías de algoritmos con muchas pruebas a fin de eliminar estos sesgos y cometer estos errores aunque, para ser honesto, veo difícil que esto se pueda atajar completamente, por lo tanto, ya existirán casos de demandas por el mal resultado algorítmico y consecuencias graves para las empresas.