ArgentinaArgentinaUruguay Días hábiles 08:00-17:00 +54 9 3492 411864 Mon - Fri 08:00-17:00 +54 9 3492 695688
Microsoft Partner
Argentina
Respond Partner
Latinoamérica
Certificados en Microsoft
Expert
Asesoría sin cargo

ChatGPT podría exigir verificación de identidad para adultos, advierte su CEO: ¿Qué cambiará para los usuarios?

En una reciente declaración que ha generado amplia atención en la comunidad tecnológica y entre usuarios de inteligencia artificial, Sam Altman, director ejecutivo de OpenAI, indicó que ChatGPT podría comenzar a requerir verificación de identidad para adultos en un futuro cercano. Esta medida, según explicó, busca reforzar la seguridad, proteger a los menores y mejorar la responsabilidad en el uso de esta herramienta basada en inteligencia artificial.

¿Por qué considerar una verificación de identidad?

Desde su lanzamiento, ChatGPT ha sido adoptado por millones de usuarios en todo el mundo. Si bien su uso ha estado en gran medida abierto, algunas funcionalidades avanzadas o el acceso a determinados contenidos han estado sujetos a restricciones de edad.

La verificación de identidad se perfila como una medida clave para abordar varios desafíos críticos:

  1. Protección de menores: Evitar que niños y adolescentes accedan a contenidos no aptos para su edad o usen el modelo para fines inadecuados.

  2. Uso responsable: Aumentar la trazabilidad de acciones y reducir el mal uso deliberado del sistema para generar desinformación, contenido engañoso o dañino.

  3. Cumplimiento legal: Alinearse con leyes internacionales de protección de datos y derechos digitales, como la GDPR en Europa o leyes específicas en Estados Unidos y otros países.

El desafío de la IA abierta y el acceso masivo

El CEO de OpenAI ha manifestado en múltiples ocasiones su preocupación sobre cómo las herramientas de inteligencia artificial podrían ser mal utilizadas si no se implementan ciertos límites o controles. “La IA está avanzando muy rápido, y con gran poder viene una gran responsabilidad”, afirmó Altman en una entrevista reciente.

Aunque el modelo gratuito de ChatGPT ha sido una puerta de entrada a la IA para millones, la compañía está evaluando formas de mantener ese acceso abierto mientras implementa salvaguardas más robustas. La verificación de identidad sería una de ellas, al menos para ciertas funciones o niveles de acceso.

¿Cómo impactaría esto a los usuarios?

Si OpenAI implementa esta medida, los usuarios adultos podrían verse obligados a verificar su identidad mediante documentos oficiales o plataformas de terceros. Esta verificación podría aplicarse en los siguientes escenarios:

  • Acceso a versiones avanzadas como ChatGPT-4 Turbo.

  • Uso de herramientas con mayor capacidad de generación de código o contenido gráfico.

  • Interacción con funciones que impliquen almacenamiento de datos o personalización profunda.

  • Uso comercial del modelo o integración en productos empresariales.

Para muchos, esto podría representar un paso más hacia un uso profesional y regulado de la IA, mientras que otros podrían verlo como una barrera a la libertad de acceso o un riesgo para la privacidad personal.

asta el momento, OpenAI no ha anunciado una fecha específica ni detalles técnicos sobre cómo se implementaría la verificación de identidad. Sin embargo, el hecho de que el propio CEO haya planteado públicamente esta posibilidad sugiere que ya se están desarrollando internamente sistemas de autenticación o alianzas con plataformas confiables.

Asimismo, esta decisión parece alinearse con una tendencia más amplia en el mundo digital, donde plataformas como X (antes Twitter), Meta o Discord ya exigen identificación para ciertos usos o niveles de acceso, especialmente cuando se trata de proteger a menores o cumplir con marcos legales internacionales.

 Conclusión: ¿hacia una IA más segura?

La posible implementación de una verificación de identidad para adultos en ChatGPT marca un nuevo capítulo en la evolución del uso de la inteligencia artificial. A medida que las capacidades de los modelos crecen, también lo hacen los riesgos asociados a su uso inadecuado.

La comunidad tecnológica, reguladores y usuarios están cada vez más conscientes de la necesidad de establecer límites éticos y técnicos. OpenAI parece estar dando pasos firmes en esa dirección.

Aunque aún hay muchas preguntas por responder, una cosa es clara: el futuro del acceso a herramientas de IA como ChatGPT podría no ser tan anónimo como hasta ahora.