El mundo de los robots, siempre me ha parecido, por lo menos; inquietante.
¿Hasta qué punto nos tiene que llevar el avance tecnológico, para lograr que un robot se convierta en un complemento...o en una totalidad?
Es decir, la duda viene a ser sí el robot que nos tenga que ayudar por ejemplo en las tareas domésticas, se convierta en un "ser" que nos anule como individúos (ya que lo hará todo por nosotros); o bien si será creado para potenciar nuestras facultades, alentándonos a hacer aquello que no sabemos o no queremos hacer.
Este planteamiento lo estuve escuchando ayer en el programa "Tres 14" (el cuál recomiendo encarecidamente). Me pareció un planteamiento apasionante.
Un personaje cómo C3PO, ¿debería ejercer sólo de interlocutor para facilitarnos la comunicación en otros idiomas? ¿O quizás debería ayudarnos a aprender aquellas lenguas que no sabemos?
Alguien cómo HAL9000 (de la película de Kubrik "2001 A Space Odissey"), ¿tendría que ejercer solo las tareas de control de un espacio asignado, o tal vez debería estar programado para que ineludiblemente parte del trabajo la tuvieran que realizar los humanos?
¿O tal vez Ash (de la película "Alien"), se debería limitar a realizar las tareas médicas, o solo tendría que ayudar al doctor humano que asistiera?
Todo esto, para intentar discernir entre un futuro más o menos negro que podamos tener con nuestros amigos de chips de silicio. Construirlo a medida es tarea difícil. Y quedó demostrado en la década de los 60.
Por allá el año 66, el profesor Weizenbaum, construyó un robot llamado Eliza, que simplemente estaba programado para responder a preguntas de tipo emocional.
Si el "paciente", preguntaba, "estoy triste, qué puedo hacer", Eliza estaba programada para responder con una posible solución frente a ese problema. Evidentemente, se trataba tan solo de una combinación de preguntas preescritas, frente a respuestas prestablecidas. Por lo tanto, no había ninguna respuesta emocional. O si?
Los pacientes experimentaron lo que hoy se conoce como el efecto Eliza. Nada más y nada menos que empatizar inconscientemente con una máquina. Es decir, atribuirle cualidades humanas. Los que probaron el experimento Eliza, acabaron en parte agradeciendo la ayuda que les prestaba el robot, y le alababan las cualidades como médico.
Un ejemplo más actual, sería por ejemplo golpear un ordenador cuando necesitamos que vaya lo más rápido posible, y hacemos borma al decir que "la madre que lo parió, ahora me hace esto". No habrá respuesta ninguna por parte del hardware (bueno, es probable que se rompa); y por otra parte, el ordenador (ni falta haría decirlo), jamás tomará la decisión por su propia voluntad (por lo menos de momento...), de ir más lento para jodernos la vida.
Pero a eso se le llama el efecto Eliza.
Tratar a una máquina cómo a cualquier otro ser vivo.
¿Hasta qué punto nos tiene que llevar el avance tecnológico, para lograr que un robot se convierta en un complemento...o en una totalidad?
Es decir, la duda viene a ser sí el robot que nos tenga que ayudar por ejemplo en las tareas domésticas, se convierta en un "ser" que nos anule como individúos (ya que lo hará todo por nosotros); o bien si será creado para potenciar nuestras facultades, alentándonos a hacer aquello que no sabemos o no queremos hacer.
Este planteamiento lo estuve escuchando ayer en el programa "Tres 14" (el cuál recomiendo encarecidamente). Me pareció un planteamiento apasionante.
Un personaje cómo C3PO, ¿debería ejercer sólo de interlocutor para facilitarnos la comunicación en otros idiomas? ¿O quizás debería ayudarnos a aprender aquellas lenguas que no sabemos?
Alguien cómo HAL9000 (de la película de Kubrik "2001 A Space Odissey"), ¿tendría que ejercer solo las tareas de control de un espacio asignado, o tal vez debería estar programado para que ineludiblemente parte del trabajo la tuvieran que realizar los humanos?
¿O tal vez Ash (de la película "Alien"), se debería limitar a realizar las tareas médicas, o solo tendría que ayudar al doctor humano que asistiera?
Todo esto, para intentar discernir entre un futuro más o menos negro que podamos tener con nuestros amigos de chips de silicio. Construirlo a medida es tarea difícil. Y quedó demostrado en la década de los 60.
Por allá el año 66, el profesor Weizenbaum, construyó un robot llamado Eliza, que simplemente estaba programado para responder a preguntas de tipo emocional.
Si el "paciente", preguntaba, "estoy triste, qué puedo hacer", Eliza estaba programada para responder con una posible solución frente a ese problema. Evidentemente, se trataba tan solo de una combinación de preguntas preescritas, frente a respuestas prestablecidas. Por lo tanto, no había ninguna respuesta emocional. O si?
Los pacientes experimentaron lo que hoy se conoce como el efecto Eliza. Nada más y nada menos que empatizar inconscientemente con una máquina. Es decir, atribuirle cualidades humanas. Los que probaron el experimento Eliza, acabaron en parte agradeciendo la ayuda que les prestaba el robot, y le alababan las cualidades como médico.
Un ejemplo más actual, sería por ejemplo golpear un ordenador cuando necesitamos que vaya lo más rápido posible, y hacemos borma al decir que "la madre que lo parió, ahora me hace esto". No habrá respuesta ninguna por parte del hardware (bueno, es probable que se rompa); y por otra parte, el ordenador (ni falta haría decirlo), jamás tomará la decisión por su propia voluntad (por lo menos de momento...), de ir más lento para jodernos la vida.
Pero a eso se le llama el efecto Eliza.
Tratar a una máquina cómo a cualquier otro ser vivo.
0 comentaris:
Publicar un comentario