Discernir la realidad del bombo publicitario sobre la IA

Discernir la realidad del bombo publicitario sobre la IA

Cuando se trata de inteligencia artificial y cómo aplicarla al desarrollo de software, es difícil distinguir entre las exageraciones y la realidad de lo que se puede hacer con ella hoy. La presentación de la inteligencia artificial en las películas hace que esta tecnología parezca aterradora y sugiere que en un futuro no muy lejano los humanos serán esclavos de las máquinas. Pero otras películas muestran que la IA se utiliza para todo tipo de cosas futuras (y muy probablemente irreales). La realidad, por supuesto, está en algún punto intermedio. Si bien es necesario entrar con cautela en el ámbito de la inteligencia artificial, lo que ya se ha hecho, especialmente en el ciclo de vida del software, ha demostrado lo útil que puede ser. La IA ya está salvando a los desarrolladores de tareas mundanas y también sirve como socio (un segundo par de ojos) para ayudar con problemas de codificación e identificar problemas potenciales. Kristofer Duer, investigador jefe cognitivo de HCLSoftware, señaló que el aprendizaje automático y la inteligencia artificial aún no son como se ven, por ejemplo, en las películas de “Terminator”. «Todavía no tiene discernimiento y no comprende la moralidad en absoluto», dijo Duer. «Él realmente no entiende más de lo que crees que debería entender». “Lo que puede hacer bien es combinar patrones; Puede identificar puntos en común en las recopilaciones de datos”. Pros y contras de ChatGPT Las organizaciones están viendo el mayor interés en la IA generativa y los grandes modelos de lenguaje, donde pueden ingerir datos y resumirlos en formatos utilizables por humanos. ChatGPT quizás sea el que ha tenido más problemas, produciendo volúmenes de información, pero que no siempre es precisa. Duer dijo que ha planteado preocupaciones de seguridad a ChatGPT y ha demostrado que puede comprender fragmentos de código que son problemáticos casi siempre. Cuando se trata de «identificar el problema y resumir de qué debe preocuparse, es bastante bueno». Sin embargo, una cosa que no hace bien es comprender cuando uno se equivoca. Duer dijo que cuando ChatGPT está mal, seguramente estará mal. ChatGPT “puede tener alucinaciones horribles, pero no tiene esa discriminación para entender que lo que dice es una absoluta tontería. Es como, «Dibujame un tanque», y es un gato o algo así, o un tanque sin torreta. Es una locura. “ Rob Cuddy, ejecutivo de experiencia del cliente de HCLSoftware, añadió que, en muchos sentidos, es como tratar de ser padre de un niño en edad preescolar. «Si alguna vez has estado en el patio de recreo con ellos, o les muestras algo, o ellos miran algo y llegan a una conclusión que nunca esperaste y, sin embargo, están – según Kris – 100% seguros de lo que están haciendo». tu estas diciendo. Para mí la inteligencia artificial es así. La conclusión a la que lleguen depende mucho de su experiencia, el entorno y lo que ven actualmente”. Como cualquier relación, la relación entre las organizaciones de TI y la inteligencia artificial es una cuestión de confianza. Lo construyes para encontrar patrones en los datos o le pides que encuentre vulnerabilidades en el código y devuelve una respuesta. ¿Pero es esta la respuesta correcta? Colin Bell, CTO de HCL AppScan en HCLSoftware, dijo que le preocupa que los desarrolladores se vuelvan demasiado dependientes de la IA generativa, ya que ve una dependencia de cosas como Code Llama de Meta y Copilot de Google para desarrollar aplicaciones. Pero estos modelos son tan buenos como han sido entrenados. “Bueno, le pedí al modelo Gen AI que me generara este fragmento de código, y volvió y me pidió que también fuera seguro, así que regresó con ese código. Entonces, confío en él. Bell agregó que ahora, con las herramientas de inteligencia artificial, los desarrolladores menos capacitados pueden crear aplicaciones dándole al modelo algunas especificaciones y obteniendo el código, y ahora piensan que su trabajo está hecho por hoy. “En el pasado, habrías tenido que resolverlo. problemas y mirar y mirar cosas diferentes» en el código, dijo. «Así que toda la dinámica de lo que está haciendo el desarrollador está cambiando. Y creo que la IA probablemente esté creando más trabajo para la seguridad de las aplicaciones, porque se genera más código. Due dijo que a pesar de los avances en la IA, seguirá cometiendo errores que en realidad podrían empeorar la seguridad. “No se puede simplemente apuntar la IA a un repositorio y decir: ‘Vuélvete loco’”, dijo. herramienta de escaneo que le indica las veces. Bell también enfatizó la importancia de que un ser humano realice un nivel de clasificación. La IA, dijo, hará que la evaluación de vulnerabilidades sea más comprensible y clara para los analistas que se encuentran en el medio. “Si nos fijamos en organizaciones, grandes organizaciones financieras u organizaciones que se toman en serio la seguridad de sus aplicaciones, todavía quieren que esa persona en el medio haga ese nivel de pruebas y escrutinio. Lo que pasa es que la IA les facilitará todo un poco”. Mitigar los riesgos del uso de IA Duer dijo que HCLSoftware utiliza varios procesos para mitigar los riesgos del uso de IA. Uno, dijo, es el análisis inteligente de resultados (IFA), donde utilizan inteligencia artificial para limitar la cantidad de resultados presentados al usuario. El otro es algo llamado análisis de código inteligente (ICA), que intenta determinar cuál podría ser la información de seguridad de los métodos o API. «La historia detrás de las dos piezas de IA que integramos en AppScan es interesante», explicó Duer. “Estábamos haciendo nuestra primera incursión en la nube y necesitábamos una respuesta de clasificación. Tuvimos que plantearnos preguntas nuevas y muy diferentes. Por ejemplo, ¿cómo manejamos cosas simples y «aburridas» como combinaciones de fuente->sumidero como archivo->copia de archivo? Sí, algo podría ser un vector de ataque, pero ¿es lo suficientemente «atacable» como para presentárselo a un desarrollador humano? En pocas palabras, no pudimos presentar la misma cantidad de resultados que en el pasado. Entonces, nuestro objetivo con IFA no era crear una casa de seguridad completamente cerrada alrededor de todas las piezas de nuestro código, porque eso es imposible si quieres hacer algo con cualquier tipo de entrada del usuario. En cambio, queríamos proporcionar información significativa de una manera que fuera inmediatamente procesable. «Primero probamos una versión rudimentaria de IFA para ver si el aprendizaje automático podía aplicarse al problema de ‘este resultado es interesante'», continuó. “Las pruebas iniciales mostraron una eficacia superior al 90% en una muestra muy pequeña de datos de prueba. Esto nos dio la confianza para ampliar el caso de uso a nuestros lenguajes de traceflow. Al utilizar atributos que representan lo que un revisor humano examinaría en un resultado para determinar si un desarrollador debe revisar el problema, podemos decir con confianza que la mayoría de los resultados generados por nuestro motor con características aburridas ahora se excluyen como «ruido». “Esto, afirmó Duer, ahorra automáticamente a los seres humanos reales innumerables horas de trabajo. “En uno de nuestros ejemplos más famosos, realizamos una evaluación con más de 400.000 resultados, reduciéndolos a unos 400 que un humano necesitaría revisar. Es una enorme cantidad de concentración generada al buscar las cosas que es realmente importante mirar”. Si bien debido a los meses e incluso años que puede llevar preparar los datos para incorporarlos a un modelo, cuando se trataba de IA para la autocuración, Cuddy comprendió el factor de responsabilidad. “Digamos que eres un proveedor de reparación automática y proporcionas correcciones y recomendaciones, y ahora alguien las adopta en su código y lo piratean, ocurre un accidente o algo sale mal. Entonces, ¿quién tiene la culpa? conversaciones que aún deben resolverse. Y creo que cada organización que esté analizando este problema, o que considere adoptar alguna forma de autorremediación, aún necesitará a ese hombre en medio de la validación de esa recomendación, para poder hacerlo. incurrir en esa responsabilidad, tal como lo hacemos con cualquier otra evaluación de riesgos. En última instancia, eso es todo. [risk] ¿Podemos realmente tolerarlo? En resumen, las organizaciones deben tomar decisiones importantes con respecto a la seguridad y adopción de la IA. ¿Cuánto riesgo pueden aceptar en su código? Si se rompe o es pirateado, ¿cuál es el resultado final para la empresa? En cuanto a la IA, ¿llegará un momento en que se pueda confiar en lo que crea, sin laboriosos controles de precisión, cumplimiento y requisitos legales? ¿La realidad del mañana alguna vez se enfrentará a las expectativas de hoy?

About Francisco

Check Also

¿Sigue siendo el desarrollo de aplicaciones de escritorio en C# una solución viable en 2024?

¿Sigue siendo el desarrollo de aplicaciones de escritorio en C# una solución viable en 2024?

En una época en la que las aplicaciones web y móviles parecen estar acaparando la …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *