La tecnología Openi, Chatgpt Matrice, anunció el martes que lanzaría controles de los padres en su chatbot después de aumentar los cargos de sus padres, señalando que había contribuido a la autoexistencia de sus hijos. “Estos pasos son solo el comienzo (…) Continuaremos aprendiendo y mejorando nuestro enfoque, guiados por expertos, con el objetivo de ChatGPT lo más útil posible”, describió en detalle en un comunicado, sin conectar la nueva implementación con las demandas que recibió.
Entre estas quejas se encuentran los padres de los jóvenes de 16 años que se han quitado la vida después de comunicarse con Chatt durante meses, que se quejaron contra Openi y su propietario Altman en California, alegando que el chatbot, según el GPT-4O, no aplicó medidas de seguridad, aunque estaba libre de intenciones suicidas de un hombre joven. Luego, la compañía aceptó que su asistente IA -A cometió fallas en casos “sensibles” y prometió cambiar después de recibir la demanda.
Las medidas anunciadas el martes, que se aplicarán a partir del próximo mes, pero sin la fecha exacta, permitirán a los padres conectar su cuenta con las de sus hijos, que podrán revisar cómo ChatGPT responde a sus demandas. Entre otras funciones, pueden recibir un aviso cuando el sistema descubre que los menores pasan por un problema aparentemente preocupante de inestabilidad emocional.
Además, el Openi, que fue ampliamente criticado porque el modelo GPT-5 era demasiado halagador y es crítico de la ONU, indicó que dirigiría las conversaciones con los signos de “estrés agudo” en el modelo mencionado afectado por el especialista de CHATGPT antes mencionado en la explicación proporcionada por las guías de seguridad más específicas y estrictas.
En julio, los senadores estadounidenses escribieron una carta a la compañía, exigiendo información sobre sus iniciativas para evitar solo -HM, después de registros de conceptos erróneos en situaciones fronterizas.
El grupo de defensa de los medios de defensa de sentido común dijo en abril que los adolescentes menores de 18 años no deberían usar aplicaciones de charlas de inteligencia artificial porque representan “riesgos inaceptables”. La preocupación por el apego emocional que los usuarios generan con ChatPT también ha aumentado, lo que en algunos casos da como resultado episodios de adicción y aislamiento familiar.
Informática



