Hablar de los pensamientos de un chatbot es una metáfora útil. Como usuario de un chatbot, uno no necesita ni quiere ni puede entrar en explicaciones sofisticadas. Uno simplemente dice que el chatbot «recomienda» tal cosa, que «piensa» tal otra, que está «fantaseando» algo. Esto no es solamente útil porque nos evite entrar en tecnicismos, sino porque le permite a uno enfocarse en lo que importa, que es que nos haga la tarea.
La metáfora pierde muchas veces su utilidad. Porque claro que es útil decir que la aspiradora robótica «piensa» que hay una pared antes de voltear, que el GPS «quiere» evitar el tráfico o que Windows está «conspirando» contra uno. Pero, cuando a uno se le olvidan las comillas, y asume que alguna de esas cosas piensa como los humanos pensamos, podemos terminar en problemas, como esa vez que a la aspiradora robótica se le olvidó pasar por alto unas medias que se me olvidó recoger y se volcó; o la vez que creí que Windows, después de un tiempo de estar bloqueado, iba a entrar en razón.
Cuando escribimos o leemos sobre lo que nos importa, los humanos no somos meros proveedores o consumidores de texto. Juntamos una sarta de palabras, en parte, porque queremos decir una verdad, justificar una decisión difícil, expresar una emoción, llegar a un acuerdo. Cuando leemos una sarta de palabras juntadas por alguien más, buscamos información interesante, epifanía, entendimiento o entretenimiento. Los chatbots, por otro lado, sí son meros proveedores y consumidores de texto: responden ante el mero apretón de un botón, procesan incansablemente combinaciones de palabras, hacen y hacen operaciones, sin necesidad del sueño ni del silencio ni de la conversación entre sesiones de escritura.
Claro, si la confusión resultara simplemente en que nos ponemos bravos por las pendejadas que recomienda el GPS o por la terquedad de Windows, tendríamos poco por discutir (y mucho material para chistes). El problema es que la confusión se desliza en otros ámbitos, donde las consecuencias de daños previsibles ameritan más reflexión (y ni siquiera son chistosas).
Un médico que le pide ayuda a un modelo para resolver un dilema ético y que acepta la respuesta sin cuestionarla, sin entender su código de ética profesional, puede terminar achacando responsabilidades a lo que no las tiene, y vulnerando derechos de los pacientes. Un abogado que confía, sin contrastar, en que el modelo «conoce» la jurisprudencia, puede terminar sancionado por temeridad procesal, como recientemente le ocurrió a un abogado sancionado por la Corte Suprema.
En la guerra la confusión también está presente. Analistas de inteligencia que usualmente se encargan de revisar objetivos de bombardeos pueden tomar los objetivos militares que arrojan modelos de inteligencia artificial «como si fueran decisiones humanas«. Así como el abogado no contrasta las citas del chatbot asumiendo que «ya había pensado», así también el analista militar puede aprobar lo que un sistema arroje porque «el sistema ya razonó».
Yo entiendo que los chatbots llegaron para quedarse y que asumirlos pensantes es muchas veces inofensivo y conveniente. Con el tiempo, puede que los escolásticos convengamos en algún sentido de «pensar» que haga técnicamente correcto decir que los chatbots piensan. O puede que no, quién sabe. Los problemas surgen cuando asumimos con mucha chabacanería que una tecnología sorprendente (como toda tecnología nueva nos parece) es como queremos que sea: pensante, consciente, responsable, meticulosa. Puede que en algún momento ocurra que los chatbots sean todo eso. Cuando lo sean, todavía tendremos que decidir por qué es importante hacer las cosas bien hechas, ser responsables, decir la verdad y respetar a los demás. Se me ocurre que parte del proceso de tomar esas decisiones bien tomadas pasa por conversar entre nosotros.