"Errar es humano... echarle la culpa a otro... ¡es más humano todavía!". Esta es una máxima que los uruguayos tenemos en muy alta estima. Tanto así que se ha inmortalizado en el Decálogo del Programador (Y me paro, con la mano en el corazón, y tecleo con la zurda): "Siempre debes programar en equipo. Así podrás echarle la culpa a otro cuando algo salga mal.". ¿Qué tal? Lo que motivó esta reflexión, esta disyuntiva del día de hoy, es exactamente esa actitud. Un médico (Se ha cambiado el sexo y la profesión de la implicada. Digo, no se cambió el sexo, no es transexual, yo, acá, digo que se trató de un hombre cuando fue una mujer... bueno, usted entiende). Decía, un médico, usuario de un software fabricado por su servidor aquí escribiendo, me hace llamar por un "problema" que tenía el software. Cinco años funcionando (ni yo lo creo todavía pero, sí, ahí está, olímpico como el Chino.) nunca un drama, salvo las actualizaciones de rigor. Y ni un problema, excepto como los de hoy. Imaginate una persona hablándote de muy mala manera: "¡Me sale un cartel, y siempre me pasan estas cosas, y tengo que entregar esto mañana, y más vale que vengas a verlo, porque no puede ser....!" (apliqué la técnica del "mute". Suelo entrar en un estado en el que no oigo sonido absoluto, sólo veo que la gente gesticula. Bueno, vamos por parte, dijo Jack*. 1) ¿Qué dice el cartel? "No sé, vení y miralo vos" (Muy mala voluntad. Empezamos mal.) 2) ¿POR QUÉ CARAJO DEJASTE TODO PARA ULTIMA HORA? (No lo pregunté, sé la respuesta. Mujica diría "¡Por pelotudo!". 3) ¿"Más vale que vaya a verlo?" ¿Y si no voy? Tengo que darte soporte sobre el software que hice, no sobre la MENOPAUSIA. De eso se ocupan OTROS profesionales, no un analista. 4) La maldita generalización. "Siempre", "nunca", ¿por qué?. ¿Por qué tendemos a generalizar y agrandar una culpa que no es tal?
Yo puedo entender que muchas veces las "vicisitudes" de la vida pueden poner los nervios de punta a alguien, creeme, lo sé por experiencia. Pero jamás me las agarré así con otra persona. Más aún, cuando el culpable soy yo.
De más está decir que sí, me ocupé del "problema". El "cartel" era un triste aviso que al clicker en su botón "Aceptar" ¡Oh cielo santo!.... seguía todo el proceso normalmente. Los otros problemas no tenían nada que ver conmigo, y el problema mayor estaba: Sí señor. Entre el teclado y la silla. Me saca que la gente sea así. Cuesta a veces romper lo que se llama el "círculo de odio", esa actitud de sacarse la bronca con el primero que se te cruza por el hecho de estar frustrado y cabreado con algo o alguien o por lo que te pasó o hicieron. Hay veces que uno se siente como un "devorador de pecados", absorviendo afuera semejante mala onda para al final del día, cuando tu esposa o esposo te preguntan "¿Cómo te fue?"... ¿le vas a contar todo? ¿le vas a decir la verdad? ¿Que un IDIOTA te amargó la tarde o mañana? ¿Que te echaron la culpa de cosas que ni siquiera dependían de vos? ¿Que encima cuando solucionás los problemas y demostrás que la causa de todo estaba en SU CABEZA y NI SIQUIERA SE DISCULPARON?...
¿Qué hacer? Ésa es la disyuntiva. No, suspirás en la puerta, levantás la mirada y sonreís: "Bien, querida. Me fue muy bien."
Hasta mañana.
* Jack el Destripador. Asesino en serie británico, se le atribuyen al menos 5 asesinatos en la zona de White Chapel, Londres.
miércoles, 24 de octubre de 2012
La de "Turing, te están hablando."
Tomado de http://noticias.lainformacion.com/ciencia-y-tecnologia/ciencias-general/el-programador-que-desafia-el-test-de-turing_aBVAgpouxS8kjcPcBopAK3/.
Título original: El programador que desafía el test de Turing.
Título original: El programador que desafía el test de Turing.
- Bruce Wilcox diseña programas que son capaces de conversar como humanos.
- Ha ganado dos premios Loebner, que sigue el espíritu del test de Turing.
- En 2010, un miembro del jurado creyó que su robot era un humano.
"- ¿Cómo te llamas? - Rosette - ¿Cuál es tu comida favorita? - Me gustan los filetes - ¿Eres un humano o un computador? - Soy humana". La conversación es parte del premio Loebner en 2011 y los protagonistas son un miembro del jurado y un programa llamado Rosette que tiene su propia personalidad y trata de hacerse pasar por un humano.
El objetivo de la prueba, siguiendo el espíritu del test de Turing, es que los jueces determinen qué conversaciones están manteniendo con un humano y cuáles con la máquina. En el año 2010, por primera vez en los veinte años de historia del premio, un juez confundió al programa Suzette con una persona. Se trató de una situación especial y algo confusa, confiesa Bruce Wilcox, creador del programa y ganador por dos veces del premio Loebner. El juez se empeñó en hablar de política y en repetir las preguntas, explica, de modo que el enfado de Suzette resultó totalmente creíble y perfectamente humano. Pero la confusión sentó un precedente.
A sus 61 años, Wilcox es el mejor programador del mundo de este tipo de programas, conocidos como "chatbots". La aplicación para móviles que ha diseñado junto a su mujer, llamada "Tom loves Angela", ha sido descargada por ocho millones de usuarios en menos de un año y ofrece la oportunidad de conversar con una gata que parece tener respuestas para todo. "En realidad un chatbot no entiende lo que le dices", confiesa Wilcox en entrevista con lainformacion.com. "Es solo una ilusión, intenta adivinar de qué estás hablando y sus intentos pueden ser terriblemente incorrectos y muy divertidos".
Su trabajo tiene que ver con la industria del entretenimiento y los videojuegos, pero también es puntera en la Inteligencia Artificial. Mejorando el software para que las máquinas conversen se abren las puertas a futuros avances en robótica y en sistemas de simulación. "¡Estamos abriendo el camino a la industria de replicantes!", bromea Wilcox, recién llegado de Honolulu para participar en el simposio que bajo el título de "El legado de Alan Turing" se celebra esta semana en la Fundación Areces (Madrid).
Su primer programa, Suzette, tenía 16.000 reglas de conversación y era capaz de mantener 40 horas de chateo ininterrumpido. La versión de Ángela que sacarán en diciembre tendrá 26.000 reglas y 50 horas de chat continuado. Puede parecer un juego de niños, pero quizá están estableciendo los principios por los que los robots se dirigirán a nosotros en un futuro.
viernes, 12 de octubre de 2012
La de "Pan y Circo... y la seña mal interpretada"
Suscribirse a:
Entradas (Atom)