sábado, 23 de agosto de 2025

Cuánto te puede ayudar ChatGPT

Breve reflexión tras haber estado usando un tiempo ChatGPT para generar código, y creo que esto debiera ser extensible a cualquier aprendizaje o proyecto sobre un tema. La conclusión rápida que saco es que en términos de productividad ChatGPT (y cualquier LLM en general) es de más ayuda cuanto más domines la materia sobre la que estás trabajando.

Si representamos de forma cualitativa cuánto te puede aportar un LLM en avanzar sobre determinada temática posiblemente tendríamos algo así:



Me he movido por varios puntos del eje x de esa gráfica:
  • En mi opinión si partes de cero en un tema sobre el que quieres llegar a profundizar, es mejor no empezar preguntándole a un LLM. No te va a dar información bien hilada y completa, y lo peor es que no vas a poder detectar si patina con información errónea. En ese punto es mejor acudir a literatura o formación fiable y bien construida.
  • En cambio si ya dominas un tema puedes dejarlo más libre para que haga en pocos segundos lo que podrías tardar un día. Sería el escenario de mayor productividad: el LLM, cual becario motivado para impresionarte, ejecutará la parte dura y aburrida y tú con tu saber hacer lo orientarás con un buen prompt y refinarás los pequeños errores que cometa. Si no tuviera frescos los conocimientos de Física del instituto no habría podido escribir mi prompt, ni habría corregido su error de la fuerza centrífuga en este ejercicio. Tampoco podría haber adaptado las funciones que genera sin saber R.
  • Por último si sabes más que el LLM de un tema empieza a ser cuestionable su aportación, y no hace falta ser Nobel en Astrofísica para que ocurra. Los LLM se entrenan con información que hay en Internet, así que basta que sobre determinado tema la información predominante allí sea incorrecta o confusa y probablemente el LLM caiga en la trampa. A veces The wisdom of the crowd falla.

Todos los ejercicios con participación de ChatGPT (o cualquier otro LLM) los dejaré marcados con la etiqueta ChatGPT. En algunos el modelo de lenguaje ha generado funciones completas, en otros ha optimizado código R preexistente traduciéndolo a C++, y en otros simplemente me ha ahorrado la tarea de recopilar datos (fórmulas conocidas pero complejas, datos GIS,...).

La parte de código generada por un LLM tendrá las asignaciones hechas con la flecha en lugar del símbolo = que utilizo por norma en R. Una forma sencilla de distinguir la cosecha propia del trabajo del becario sintético.

No hay comentarios:

Publicar un comentario

Por claridad del blog, por favor trata de utilizar una sintaxis lo más correcta posible y no abusar del uso de emoticonos, mayúsculas y similares.