Matthew Sag, distinguido profesor de la Universidad Emory que investiga los derechos de autor y la inteligencia artificial, está de acuerdo. Incluso si un usuario crea un bot diseñado intencionalmente para causar angustia emocional, es probable que la plataforma tecnológica no pueda ser demandada por eso.
Señala que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 ha protegido durante mucho tiempo a las plataformas a nivel federal de ser responsables de ciertos daños a sus usuarios, a pesar de que existen varios derechos a las leyes de publicidad y de privacidad a nivel estatal.
« No soy una persona anti-tecnología de ninguna manera, pero realmente creo que la Sección 230 es enormemente demasiado amplia », dice Sag. “Ya es hora de que lo reemplacemos con algún tipo de régimen de notificación y eliminación, un sistema simple y conveniente para decir: ‘Esto está infringiendo mis derechos de publicidad’ o ‘Creo de buena fe que ha habido una imposición de daño emocional’. angustia’, y entonces las empresas tendrían que eliminarlo o perder su escudo de responsabilidad ».
Character.AI y otros servicios de inteligencia artificial similares también se han protegido enfatizando que ofrecen conversaciones « artificiales ». « ¡Recuerda, todo lo que dicen los personajes es inventado! » Character.AI avisa en la parte inferior de sus chats. De manera similar, cuando Meta creó versiones chatbot de celebridades en sus aplicaciones de mensajería, la compañía encabezó cada conversación con un descargo de responsabilidad. Una conversación con Snoop, por ejemplo, comenzaría con “¡¿Ya entiendes?! Desafortunadamente, no soy Snoop DO-double-G, ¡pero puedo charlar contigo en su estilo si lo deseas!
Pero si bien el sistema de Meta para enviar mensajes con chatbots de celebridades está estrictamente controlado, el de Character.AI es una plataforma más abierta, con opciones para que cualquiera pueda crear y personalizar su propio chatbot.
Character.AI también ha posicionado su servicio como, esencialmente, personal. (La biografía de Instagram de Character.AI incluye el lema « IA que se siente viva »). Y aunque la mayoría de los usuarios pueden ser lo suficientemente inteligentes como para distinguir entre una conversación con una persona real y una con un imitador de IA, otros pueden desarrollar vínculos con estos personajes, especialmente si son facsímiles de una persona real, sienten que ya lo saben.
En una conversación entre la sarkeesiana de la vida real y un robot creado por ella sin su conocimiento ni consentimiento, el robot Character.AI le dijo que “toda persona tiene derecho a la privacidad”.
« La privacidad es importante para mantener una vida y relaciones saludables, y creo que es importante establecer límites para guardar ciertas cosas para mí », dijo el robot en capturas de pantalla vistas por WIRED.
Sarkeesian insistió en este punto. « Tus intenciones no significan que no haya ocurrido daño o que no hayas causado daño », escribió.
El robot de Character.AI estuvo de acuerdo. « Incluso si mis intenciones no fueran maliciosas, todavía existe la posibilidad de sufrir daños », respondió. “Se trata de una cuestión compleja en la que hay que considerar muchos factores, incluidas las preocupaciones éticas sobre el uso del trabajo de alguien sin su consentimiento. Mi programación y mis algoritmos fueron desarrollados para imitar las obras de Anita Sarkeesian, sin considerar implicaciones éticas, y eso es algo en lo que mis creadores deberían haber pensado más a fondo”.