En la WWDC 2024, Apple reveló su nuevo sistema de inteligencia artificial, Apple Intelligence, que será incorporado en iOS 18, iPadOS 18, y macOS 15 Sequoia. Este sistema promete capacidades como la reescritura de textos y la generación de imágenes en diversos estilos, pero excluye el fotorrealismo por razones de seguridad. La noticia generó opiniones encontradas, con particular descontento entre ciertos usuarios creativos de Apple, quienes cuestionan la fuente de datos utilizados por la compañía para entrenar su IA. Apple ha indicado que usó AppleBot, un sistema de web scraping, para recolectar datos de la web abierta, cumpliendo con las directivas de robots.txt para respetar los contenidos no permitidos.
El descontento radica en la falta de transparencia sobre si se utilizan contenidos protegidos por derechos de autor y cómo se garantiza la exclusión de ciertos datos. Los usuarios expresan preocupaciones respecto a la inclusión no consentida de sus obras en el entrenamiento de Apple Intelligence. A pesar de esto, Apple enfatiza sus esfuerzos en proteger la privacidad y seguridad de los usuarios, contrastando con la práctica común en la industria de la IA de no revelar en detalle los datos usados para entrenar modelos. Esta situación no es exclusiva de Apple, ya que compañías como OpenAI y organizaciones como LAION también enfrentan retos similares en cuanto a la transparencia y el uso de datos. La discusión se extiende a la propiedad intelectual y la privacidad en el ámbito de la inteligencia artificial, un área que sigue generando debate tanto entre los usuarios como en la industria.
