Múltiples empresas de IA hacen uso de tu información sin tomar en cuenta las leyes de derechos de autor o políticas de privacidad.
El artículo destaca una preocupación creciente sobre la recopilación de datos por parte de empresas desarrolladoras de Inteligencia Artificial (IA), resaltando cómo muchas de estas empresas recopilan datos para entrenar modelos sin tomar en cuenta las leyes de derechos de autor o políticas de privacidad. Esto ha llevado a miles de demandas relacionadas con prácticas poco transparentes en torno a la recopilación de datos.
Se menciona que las empresas a menudo complican los procesos para que las personas no soliciten que sus datos no sean utilizados para entrenar modelos de IA, y que algunas de ellas incluyen permisos de aceptación de datos de manera predeterminada en sus políticas de privacidad. Aquellos que no deseen que su información sea utilizada deben hacer uso de herramientas de exclusión voluntaria.
Sin embargo, no todas las empresas ofrecen soluciones o mecanismos de exclusión voluntaria para que los usuarios decidan si su información será utilizada para entrenar a la IA o no. A pesar de ello, algunas plataformas están implementando procesos para brindar a las personas un mayor control sobre su información y cómo es utilizada.
Se destaca que aunque son escasas, algunas empresas no permiten que los modelos de IA utilicen los datos de sus usuarios, y que la mayoría de las exclusiones voluntarias se refieren a datos de texto, aunque existen servicios que permiten a los usuarios revisar si sus imágenes han sido recopiladas por modelos de IA e inhabilitar los datos.
El artículo enumera algunas empresas que actualmente cuentan con procesos de exclusión voluntaria, como Adobe y Amazon Web Services, destacando la complejidad de algunos de estos procesos. Se menciona que Google también permite inhabilitar las revisiones de conversaciones para mejorar los modelos de lenguaje, al igual que Tumblr.
En conclusión, se recomienda consultar las políticas de uso de datos de cada plataforma utilizada para asegurarse de no compartir información con posibles compañías desarrolladoras de IA si así se desea.