OpenAI anunció recientemente CriticGPT, un nuevo modelo de IA que proporciona críticas de las respuestas de ChatGPT para ayudar a los humanos que entrenan modelos GPT a evaluar mejor los resultados durante el aprendizaje por refuerzo de retroalimentación humana (RLFH). Según OpenAI, CriticGPT no es perfecto, pero ayuda a los formadores a detectar más problemas de los que resuelven por sí solos. Pero, ¿es una buena idea agregar más IA a la fase de calidad? En el último episodio de nuestro podcast, hablamos sobre esta idea con Rob Whiteley, director ejecutivo de Coder. Aquí hay una versión editada y abreviada de esa conversación: Mucha gente trabaja con ChatGPT y hemos oído hablar de alucinaciones y todo tipo de problemas, ya sabes, infracción de derechos de autor, plagio y todo ese tipo de cosas. Entonces OpenAI, en su sabiduría, decidió que una IA no confiable sería controlada por otra IA en la que ahora deberíamos confiar que será mejor que su primera IA. Entonces, ¿es este un puente demasiado lejano para usted? Creo que, en la superficie, diría que sí, si necesita limitarme a una sola respuesta, probablemente sea un puente demasiado lejos. Sin embargo, lo que se vuelve interesante es realmente su nivel de comodidad al ajustar una IA con diferentes parámetros. Y lo que quiero decir con esto es que sí, lógicamente, si tienes una IA que produce resultados inexactos y luego le pides que esencialmente se controle a sí misma, estás eliminando a un ser humano crítico del circuito. Creo que la gran mayoría de los clientes con los que hablo se apegan a la regla 80/20. Alrededor del 80% puede ser producido por una herramienta de IA o GenAI, pero el último 20% aún requiere ese ser humano. Entonces, en la superficie, me temo que si te vuelves perezoso y dices, está bien, ahora puedo dejar el último 20% para que el sistema se controle a sí mismo, entonces creo que hemos entrado en territorio peligroso. Pero, si hay algo que he aprendido acerca de estas herramientas de IA, es que son tan buenas como la pista que les das, así que si eres muy específico acerca de lo que la herramienta de IA puede o no puede controlar , por ejemplo, busque errores de codificación, busque errores lógicos, busque errores, no mire ni alucine, no mienta, si no sabe qué hacer, ayúdeme; hay cosas que esencialmente puede hacer. explícito que implícito, lo que tendrá un efecto mucho mejor. La pregunta es: ¿tiene acceso al mensaje o se trata de algo que se autocura en segundo plano? Entonces, para mí la pregunta es: ¿aún puedes ordenar a la máquina que cumpla tus órdenes, o ahora es semiautónoma y trabaja en segundo plano? Entonces, ¿cuánto de esto crees que se debe simplemente a que la gente se precipita hacia la IA muy rápidamente? Definitivamente estamos en una especie de burbuja publicitaria clásica cuando se trata de tecnología. Y creo, nuevamente, específicamente, que quiero permitir que mis desarrolladores usen Copilot o alguna herramienta GenAI. Y creo que la victoria se anuncia demasiado pronto. Ok, «ahora lo hemos puesto a disposición». Y, en primer lugar, si puedes realizar un seguimiento del uso, algo que muchas empresas no pueden hacer, verás un gran aumento. La pregunta es: ¿qué tal la segunda semana? ¿La gente todavía lo usa? ¿Lo usan regularmente? ¿Están obteniendo valor de ello? ¿Puedes correlacionar su uso con hallazgos como errores o tiempos de compilación? Y para mí, estamos en un momento de preparación al que creo que muchas empresas se están apresurando. Se parece un poco a la nube de hace 20 años, cuando era la respuesta de todos modos. Y luego, cuando las empresas entraron, se dieron cuenta de que esto es realmente costoso o que la latencia es muy mala. Pero ahora estamos más o menos ocupados, así que lo haremos. Temo que las empresas hayan intervenido. Ahora bien, no soy un oponente de GenAI. Hay valor y creo que hay ganancias de productividad. Simplemente creo que, como cualquier tecnología, hay que crear un caso de negocio, tener una hipótesis, probarla, tener un buen grupo y luego implementarla en función de los resultados, no simplemente abrir las compuertas y tener esperanza. Entre los desarrolladores con los que habla, ¿cómo ven la IA? ¿Lo ven como si fuera una gran herramienta que realmente me ayudará? ¿O es como, oh, esto me va a quitar el trabajo? ¿Dónde cae la mayoría de la gente? Coder es una empresa de software, así que obviamente empleo a muchos desarrolladores, así que hicimos una especie de encuesta interna y descubrimos que el 60% lo estaba usando y estaba contento con él. Alrededor del 20% lo utilizaba pero lo había abandonado un poco, y el 20% ni siquiera lo había reiniciado. Por eso creo que, en primer lugar, para una tecnología relativamente nueva, ya se está acercando a una buena saturación. Para mí el valor está ahí, la adopción está ahí, pero creo que es el 20% que lo usó y lo abandonó lo que me asusta. ¿Por qué? ¿Fue sólo por razones psicológicas, como que no confío en esta cosa? ¿Fue por razones de UX? ¿Fue porque no funcionaba en mi flujo de desarrollador? Si pudiéramos llegar a un punto en el que el 80% de los desarrolladores (nunca llegaremos al 100%) y si llegamos a que el 80% de los desarrolladores obtengan valor de ello, creo que podríamos poner una línea ahí y decir que esto tiene en cierto modo transformó la forma en que desarrollamos el código. Creo que llegaremos allí y lo haremos sorprendentemente rápido. Simplemente no creo que hayamos llegado a ese punto todavía. Creo que este es un punto importante a destacar sobre cómo mantener a los humanos informados, lo que se remonta a la premisa original de que la IA controla la IA. Parece que tal vez el papel de los desarrolladores se transforme un poco. Como dijiste, algunos lo están usando, tal vez como una forma de hacer documentación y cosas así, y todavía están escribiendo código. Otras personas tal vez recurran a la IA para generar el código y luego se conviertan en revisores donde la IA escribe el código. Algunos de los usuarios más avanzados, tanto entre mis clientes como incluso en mi propia empresa, antes de la IA eran contribuyentes individuales. Ahora son casi como un líder de equipo, donde tienen múltiples robots de codificación y les piden que realicen tareas y luego las hacen, casi como programación en pareja, pero no en modo uno a uno. Es casi uno a muchos. Y entonces tendrán uno que escribe código, otro que escribe documentación, uno que evalúa una base de código, uno que todavía está escribiendo código, pero en un proyecto diferente, porque se inscribieron en dos proyectos al mismo tiempo. Así que definitivamente creo que las habilidades de los desarrolladores deben cambiar. Creo que necesitamos una revolución de las habilidades interpersonales en la que los desarrolladores estén un poco más en sintonía con cosas como comunicar, cumplir requisitos, verificar la calidad, motivar, lo cual, créanlo o no, los estudios muestran que si se motiva, la IA en realidad produce mejores resultados. resultados. Así que creo que hay un conjunto de habilidades definido que creará un nuevo (odio usar el término 10x) pero un nuevo desarrollador de mayor funcionamiento, y no creo que lo sea, ¿escribo el mejor código del mundo? Hay más: ¿Puedo obtener el mejor resultado, incluso si tengo que liderar un pequeño equipo virtual para conseguirlo?
Check Also
Sitio web de Odoo Adquirente de pagos Square
Rahul Gulati 3 Badge Rahul es un analista de negocios especializado en la plataforma Odoo. …