Puede un #Robot Respetar la #Vida y la #Privacidad ? #Privacy #MhijoElRobot

Es de esperar que muchas personas se sientan intimidadas por la presencia de un ser extraño que no tiene sentimientos y que además es una máquina programada que puede sufrir desperfectos y producir lesiones a las personas. Este temor se vio más que fundado, el día en que un trabajador de la empresa Kawasaki (Japón) murió en interacción con un robot. Invito domino no se percató el trabajador de que el robot aún poseía corriente y procedió a repararlo. El instrumento automatizado le asestó un golpe que lo mató en el acto. A pesar de que no fuera intención directa de nadie la de asesinar, el hecho de que un robot matara a un humano más la noticia publicada, agrandada y dispersada por la prensa lograría causar una gran conmoción en la población de 1982.

Pero sin ir más lejos, en marzo de 2013 y luego de que se afianzara la noticia por parte de Google de masificar sus gafas inteligentes, denominadas “Google Glass“ las cuales permiten a cada persona que las utilice a acceder a muchísima información personal de terceros debido a su tecnología de punta desplegable en sus cristales ya han surgido reacciones apoyadas por el sentido común de la gente, como es el caso del propietario del bar de Seattle, EEUU, denominado “5 Point Café“ que antes de su comercialización oficial, ya ha prohibido su uso dentro de sus instalaciones, debido a que estas gafas de realidad aumentada obtienen muchísimos datos personales sin el consentimiento de sus titulares ya que cuenta con conexión a Internet, actúan como un teléfono inteligente, toman fotos, graban vídeo y registran cada movimiento, personas y lugar dónde se encuentre, proyectando en los lentes del titular (como si de una pantalla se tratara) toda la información relevante en tiempo real, solo con enfocar los mismos hacia un objetivo.

Ya no nos referimos a aplicaciones inteligentes ni a robots que se hacen de nuestros datos, sino a instrumentos incrustados en nuestras caras para que, en vez de mantener un diálogo con la persona que tenemos en frente, lo que estamos haciendo es acceder a su perfil personal mientras ella nos habla y nos mira a los ojos (¿Y los Oculus Rift?). No le prestamos atención a lo que nos dice, no nos interesa el diálogo, y además permitimos que se interponga una máquina inteligente entre esa persona y yo para que, sin su consentimiento, directamente nos comunique su información personal y hasta sensible por propia decisión o por la nuestra. Si bien reconozco mi debilidad por la tecnología, esta vez creo que se ha ido demasiado lejos sin importar los derechos fundamentales de las propias personas. Ya es demasiado. Es que desvirtuar el objeto del derecho es en la práctica una tentación por demás sencilla cuando no debería acontecer, porque como bien expresa GARRIGA en occasio legis, el Derecho pertenece al universo del deber ser siendo que TODOS los involucrados deben ajustar sus conductas al ordenamiento jurídico (y por supuesto, al sistema jurídico). Así se pretende, y así debe ser.

En parte, esto ha servido para intentar concientizar a los desarrolladores de instrumentos automatizados, de que se debe contar con al menos determinados principios aplicables para que se eviten lesiones y muertes en las personas que se relacionan con instrumentos automatizados, robots y apps.

Aunque, para ser sinceros, el hecho de que a los instrumentos automatizados se les desarrolle una faz moralizada, capaz de actuar en base a la conciencia muy similar a la humana, obedece justamente a lo que FRIEDMAN y KAHN aseveran: todo se debe a un abandono progresivo de la moral por parte de las personas, lo que provoca que se traslade a otros individuos que actuarán en su lugar creando herramientas de decisiones (DST) que les haga responsables por sus actuaciones en el ámbito de la ética. En este ambiente, ya existen interacciones entre las personas y los robots que ponen en tela de juicio la posible falta de ética, de las personas, dependiendo del objetivo para el que un instrumento automatizado es requerido para interactuar. De éstos, tres son hoy en día los más comunes: soldados, juguetes sexuales o esclavos. En efecto, la moralidad humana se puede ver disminuida o modificada socialmente dependiendo el uso final de los robots por parte de las personas que interactúan con ellos y así el cuestionamiento final se dará sobre la misma ética de los instrumentos automatizados, pero no de las propias personas que los explotan. Ronald Arkin, director del Georgia Institute of Mobile Robot Technology analiza si la sociedad acepta o no estas tres clases de comportamiento humano hacia las máquinas, o sea, como guerreros, como compañeros o como esclavos. La primera pregunta casi se puede responder por sí misma: ¿La sociedad acepta los soldados robots?  En la actualidad se utilizan aviones piloteados por sistemas inteligentes (drones), sin pilotos, así como misiles teledirigidos y robots de infantería que ingresan en campos minados o de difícil acceso por un humano, además de la convicción de que el uso de esta maquinaria permite que no se pongan en riesgo las vidas humanas de los soldados de una nación; por lo tanto, moralmente (más allá de la legalidad), la sociedad de la información actual, los acepta. Respecto a que los robots sean utilizados como compañeros o juguetes sexuales ¿Lo acepta la sociedad? Esta respuesta es más complicada que la anterior, debido a que conviven ambas realidades en un mismo contexto: Hace mucho tiempo ya que el uso de juguetes sexuales y muñecas o muñecos hinchables ha sido aceptado de manera habitual en cualquier sociedad actual. Con ello, las empresas ofrecen nuevos productos para satisfacer las necesidades sexuales, los cuales cuentan con mayor sofisticación y obtención del placer humano. En esa categoría entran los instrumentos automatizados, por lo que su aceptación moral no es un problema. Sin embargo, sí es un tema de preocupación, el hecho de que esta práctica se transforme en una deformación aberrante de comportamiento social, por lo que entonces tenemos un mayor interés por parte de la sociedad de que no se pierdan los valores que erigen el honor y las buenas costumbres. Ello quiere decir que de existir en parte un interés en regular la moralidad de los instrumentos automatizados, la sociedad estará de acuerdo en trasladar esa inquietud a la defensa de sus derechos fundamentales.

Sin embargo, siendo realistas, solo interesan determinados logros objetivos. Lo más importante para una persona, para la sociedad, es la sensación del estado de bienestar, por encima de todas las cosas, sin importar realmente quién o qué se encuentre en al otro lado del mostrador. Así, no habrá duda alguna de que a la hora de proteger y de invocar los derechos fundamentales, la autodeterminación informativa y la protección de los datos personales, una persona lo hará para que proteger su integridad, sin importar quién o qué instrumento automatizado sea el que intenta hacerse de sus datos sin su consentimiento y para fines ilegales. Ahora, ello debe trasladarse al sistema jurídico para que sea efectivo en la piel de la sociedad actual.

un saludo