OpenAI y ChatGPT son objeto de una investigación criminal en Florida después de un tiroteo fatal

El fiscal de Florida, James Uthmeier, anunció el martes 21 de abril la apertura de una investigación criminal sobre OpenAI y ChatGPT, para arrojar luz sobre el papel que la interfaz de inteligencia artificial (IA) podría haber desempeñado en un ataque fatal en abril de 2025. Se trata de una novedad en materia penal en Estados Unidos.

Según información recabada por la fiscalía, Phoenix Ikner, estudiante de la Universidad Estatal de Florida, intercambió con ChatGPT antes de disparar a varias personas en el campus, dejando dos muertos y seis heridos. Durante una conferencia de prensa, James Uthmeier explicó que ChatGPT había “Dio orientación importante al tirador antes de cometer este crimen atroz”.

El robot conversacional hizo sugerencias sobre el arma y la munición adecuadas, así como cuándo y dónde llegar al mayor número de personas posible. A partir de estos elementos, “Mis investigadores me dijeron que si esto del otro lado de la pantalla (ChatGPT) fuera una persona, lo imputaríamos por homicidio”dijo el fiscal de Florida.

Solicitado por la Agence France-Presse OpenAI argumentó que « ChatGPT (era) No somos responsables de este terrible crimen” y que la interfaz se contentaba con producir “respuestas objetivas” a las solicitudes del estudiante cuyo juicio comenzará en octubre. El grupo destacó que transmitió espontáneamente datos sobre Phoenix Ikner después de ser informado del ataque.

OpenAI dice que ha estado trabajando durante mucho tiempo para fortalecer sus salvaguardias para “detectar intenciones peligrosas” Y “responder adecuadamente en caso de riesgo de seguridad” gente. La investigación anunciada el martes no prejuzga posibles procedimientos contra OpenAI o algunos de sus miembros.

La acusación de una persona jurídica está prevista en la legislación estadounidense, pero el fiscal Uthmeier, designado por el gobernador republicano Ron DeSantis, admitió “Que con la IA nos adentramos en territorio desconocido”.

El representante del fiscal envió a OpenAI una solicitud de documentos, en particular sobre su reglamento interno y sus métodos de supervisión de los modelos de IA. “No por ser un chatbot no debería haber responsabilidad penal”insistió el fiscal, precisando que el proceso civil, ya revelado, seguirá su curso.

Según James Uthmeier, los intercambios analizados por sus equipos demostraron que el sospechoso (tenía) describe su plan » ataque a ChatGPT. En particular, preguntó a la interfaz cómo despertar el interés de los medios de comunicación nacionales por su gesto, y “ChatGPT le ofreció un análisis”dijo el fiscal.

“Hay una diferenciadijo, entre un proveedor de Internet o un fabricante de equipos móviles y una aplicación que produce lo que parecen consejos prácticos para un tiroteo en una escuela. »

Desde la llegada de ChatGPT en noviembre de 2022, seguida rápidamente por competidores como Gemini (Google) o Claude (Anthropic), esta nueva generación de interfaces ha sido criticada periódicamente por su supuesta influencia sobre determinados usuarios.

Padres, investigadores y asociaciones han llamado especialmente la atención sobre el software que se presenta como compañero virtual, en particular el de las empresas emergentes Character.AI y Replika. Pero aunque ChatGPT, Claude o Gemini son productos más generales que no están destinados a desempeñar ningún papel, muchos adolescentes y adultos los utilizan como tales.

Los procesos se iniciaron ante los tribunales civiles, en la mayoría de los casos por suicidio y no por homicidio. En enero, Google y Character.AI llegaron a acuerdos extrajudiciales con familias que acusaban a los chatbots de dañar a menores y provocar que uno de ellos acabara con su vida.

En marzo, la familia de una joven gravemente herida durante la masacre de Tumbler Ridge (oeste de Canadá) anunció que emprendería acciones civiles contra OpenAI por negligencia. Critica a la empresa por no haber denunciado a la policía los mensajes preocupantes escritos en ChatGPT por el presunto autor del ataque.

OpenAI dijo que implementó un nuevo protocolo de seguridad que activaría una alerta basada en una conversación similar.

Deja un comentario