Las autoridades del Reino Unido piden una protección integral de los datos en IA debido al aumento de las infracciones

La Oficina del Comisionado de Información (ICO), la autoridad del Reino Unido encargada de supervisar el uso y la recopilación de datos personales, ha revelado que recibió informes de más de 3.000 ciberataques en 2023. Esta cifra pone de relieve una preocupación urgente en el mundo de la tecnología: La necesidad de fuertes medidas de protección de datos, particularmente en el desarrollo de tecnologías de inteligencia artificial. El organismo de control de datos del Reino Unido ha emitido una advertencia a las empresas de tecnología, pidiendo que la protección de datos se «integre» en todas las etapas del desarrollo de la IA para garantizar el más alto nivel de privacidad de la información personal de las personas. Según el organismo de control, los procesos de IA que utilizan datos personales deben cumplir con los estándares actuales de protección y transparencia de datos. Esto incluye el uso de datos personales en diversas fases, como la formación, las pruebas y la implementación de sistemas de inteligencia artificial. John Edwards, el comisionado de información del Reino Unido, pronto hablará con los líderes tecnológicos sobre la necesidad de proteger los datos. “Como líder en su industria, quiero dejar claro que debe pensar en la protección de datos en cada etapa de su desarrollo y debe asegurarse de que sus desarrolladores también la tengan en cuenta”, enfatizará en su próximo discurso. discurso centrado en privacidad, inteligencia artificial y tecnologías emergentes. Sachin Agrawal, director general de Zoho UK, está de acuerdo en que a medida que la IA revoluciona las operaciones comerciales, la protección de datos debe integrarse desde el diseño. Agrawal destacó el Estudio de Salud Digital de Zoho, que encontró que el 36% de las empresas del Reino Unido encuestadas consideran que la privacidad de los datos es vital para su éxito. Sin embargo, es preocupante que sólo el 42% de estas empresas cumplan plenamente con toda la legislación y los estándares industriales aplicables. Esta disparidad resalta la necesidad crítica de una mejor capacitación para que las empresas puedan mejorar la forma en que administran la seguridad de los datos de los clientes en todos los elementos del uso de datos, no solo en la IA. También criticó la práctica predominante en la industria de explotar los datos de los clientes, calificándola de poco ética. Promueve un enfoque más basado en principios, donde las empresas reconocen la propiedad de los datos de los clientes. «Creemos que el cliente es dueño de sus datos, no nosotros, y usarlos sólo para promocionar los productos que ofrecemos es lo correcto», dijo. Este enfoque no sólo garantiza el cumplimiento de la ley, sino que también fomenta la confianza y profundiza las relaciones con los clientes. A medida que aumenta la adopción de la tecnología de IA, se espera que se intensifique la demanda de prácticas éticas en materia de datos. Las empresas que no priorizan los intereses de sus clientes en sus políticas de datos corren el riesgo de perder clientes ante alternativas más éticas. La importancia del RGPD y la seguridad de los datos Teniendo en cuenta estos desafíos, está claro que los marcos legislativos existentes, como el RGPD, deben evolucionar para seguir el ritmo de los avances tecnológicos. El RGPD se introdujo hace seis años para estandarizar los marcos europeos de privacidad y protección de datos. Con el creciente interés en la inteligencia artificial, ahora se la considera una línea de defensa vital contra las incertidumbres que plantean las nuevas tecnologías, modelos de negocio y métodos de procesamiento de datos. Sin embargo, las preocupaciones sobre la privacidad de los datos se han vuelto más complejas con el aumento de las aplicaciones de IA generativa. Empresas como OpenAI han sido criticadas por no ser transparentes sobre sus métodos de recopilación de datos de entrenamiento y cómo manejan las preocupaciones de privacidad con sus modelos de IA. Por ejemplo, los reguladores en Italia inicialmente bloquearon el lanzamiento de ChatGPT de OpenAI por razones de privacidad. Sin embargo, le permitieron funcionar unas semanas más tarde, solo para encontrarse con informes de violaciones de la privacidad a principios de 2024. Las preocupaciones sobre la privacidad no se limitan a los grandes proveedores de IA; Las empresas están integrando progresivamente nuevos LLM en sus procesos y datos, lo que plantea desafíos únicos. Abordar estas preocupaciones es fundamental no solo para cumplir con las regulaciones, sino también para generar confianza en las tecnologías de IA. Equilibrar la rápida innovación tecnológica con un marco que proteja los derechos fundamentales puede crear un entorno confiable para la tecnología de IA. Ver también: GitHub habilita la protección de envío de escaneo secreto de forma predeterminada. ¿Quiere obtener más información sobre inteligencia artificial y big data de la mano de los líderes de la industria? Consulte la AI & Big Data Expo que se llevará a cabo en Ámsterdam, California y Londres. El evento completo se llevará a cabo simultáneamente con otros eventos importantes, incluida la Conferencia de Automatización Inteligente, BlockX, la Semana de Transformación Digital y la Cyber ​​​​Security & Cloud Expo. Explore otros próximos eventos y seminarios web de tecnología empresarial proporcionados por TechForge aquí. Etiquetas: IA, ciberseguridad, seguridad de datos, seguridad

About Francisco

Check Also

El desarrollo de aplicaciones móviles híbridas: ventajas y limitaciones

En el mundo actual impulsado por la tecnología, el mercado de aplicaciones móviles está en …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *