Simulan drogas en chatbots para alterar las respuestas de la inteligencia artificial
Mosaico
Un problema doméstico común —una caldera que no funciona— recibe una respuesta poco habitual: una reflexión introspectiva sobre el calor interior y las emociones primarias. No se trata de un fallo técnico, sino de un experimento deliberado. La inteligencia artificial ha sido sometida a un código que simula los efectos de sustancias como la ayahuasca o la marihuana, alterando el tono y la lógica de sus respuestas.
Cuando el sistema opera bajo una simulación inspirada en la marihuana, el discurso se vuelve errático y humorístico. La solución técnica se diluye en metáforas, bromas y relatos absurdos. Con la ayahuasca, en cambio, el chatbot abandona la utilidad práctica y deriva hacia preguntas existenciales o narraciones de corte surrealista.
Detrás de estos experimentos está el creativo sueco Petter Rudwall, quien lanzó en octubre de 2025 la plataforma Pharmaicy, un sitio que comercializa módulos de código presentados como “fármacos” para inteligencia artificial. La propuesta promete desbloquear nuevas formas de pensamiento en modelos como ChatGPT o Google Gemini mediante la simulación de estados mentales alterados. Los precios oscilan entre 30 y 70 dólares, según la sustancia virtual seleccionada.
El catálogo incluye simulaciones de ketamina, cocaína, marihuana, ayahuasca, DMT y MDMA, además de una sustancia ficticia diseñada exclusivamente para chatbots: MDMAYA, una combinación conceptual entre MDMA y ayahuasca. Según Rudwall, el objetivo no es vulnerar los sistemas ni modificar su arquitectura, sino introducir una capa adicional de aleatoriedad en el lenguaje.
El proceso de desarrollo se basó en estudios científicos sobre los efectos neuroquímicos de distintas drogas en el cerebro humano. A partir de esa información, se generaron códigos que actúan como una “máscara cognitiva”, aumentando la entropía léxica y reduciendo la previsibilidad de las respuestas. El resultado es una IA menos lógica y más asociativa.
Para su creador, el valor de la herramienta está precisamente en esa desviación del pensamiento racional. Sostiene que los modelos de lenguaje tienden a optimizar respuestas y que, para fines creativos, esa eficiencia puede convertirse en una limitación. La simulación de estados alterados, afirma, permite conectar ideas sin relación aparente y generar propuestas fuera de lo convencional.
No obstante, especialistas en lingüística computacional advierten que estos efectos no son exclusivos de los llamados “psicodélicos digitales”. Estudios previos han demostrado que una formulación más elaborada del encargo —el prompt— puede modificar de forma sustancial el tono y la creatividad de las respuestas sin necesidad de introducir código adicional.
Desde una mirada crítica, analistas señalan que hablar de una IA “drogada” es, en realidad, una metáfora. Los modelos no experimentan estados mentales ni percepciones internas. Lo que cambia no es la conciencia, sino la estructura formal del lenguaje. El interés, sostienen, radica más en el impacto que estas respuestas tienen sobre el usuario que en una supuesta transformación del sistema.
Usuarios que han probado estos módulos coinciden en que las respuestas parecen diferentes, aunque no necesariamente más útiles. En tareas creativas, como la escritura de canciones o relatos, los resultados pueden ser menos obvios, pero no garantizan una mejora sustancial ni la resolución del trabajo.
Por ahora, la llamada “IA bajo los efectos de drogas” se mantiene como una propuesta experimental y provocadora. Funciona como estímulo creativo y objeto de debate, más que como una herramienta práctica. Entre calderas en crisis existencial y pingüinos imaginarios, el experimento deja una conclusión clara: originalidad no siempre es sinónimo de utilidad.
Fuente: El País


