{"id":24860,"date":"2024-05-08T06:15:09","date_gmt":"2024-05-08T06:15:09","guid":{"rendered":"https:\/\/www.techopedia.com\/es\/?p=24860"},"modified":"2024-05-08T07:40:19","modified_gmt":"2024-05-08T07:40:19","slug":"opro-google-deepmind-transforma-llm-herramientas-resolucion-problemas","status":"publish","type":"post","link":"https:\/\/www.techopedia.com\/es\/opro-transforma-llm","title":{"rendered":"OPRO transforma los LLM en herramientas de resoluci\u00f3n de problemas"},"content":{"rendered":"

En los \u00faltimos a\u00f1os, se ha realizado un esfuerzo concertado para ampliar los modelos ling\u00fc\u00edsticos y convertirlos en lo que ahora llamamos grandes modelos ling\u00fc\u00edsticos<\/a> (LLM, por sus siglas en ingl\u00e9s), lo que implica entrenar modelos m\u00e1s grandes en conjuntos de datos m\u00e1s extensos con mayor potencia computacional, lo que se traduce en mejoras constantes y esperadas en sus capacidades de generaci\u00f3n de texto.<\/p>\n

A medida que los LLM crecen, llegan a un punto en el que desbloquean nuevas capacidades, un fen\u00f3meno conocido como aprendizaje en contexto o aprendizaje basado en est\u00edmulos.<\/p>\n

Estas nuevas habilidades se desarrollan de forma natural sin un entrenamiento espec\u00edfico, lo que permite a los LLM realizar tareas como aritm\u00e9tica, responder preguntas y resumir textos<\/strong>, todas ellas adquiridas mediante la exposici\u00f3n al lenguaje natural.<\/p>\n

Este entusiasmo ha adquirido recientemente una nueva dimensi\u00f3n, ya que los investigadores de Google DeepMind han transformado los LLM en potentes herramientas de optimizaci\u00f3n utilizando su t\u00e9cnica de prompting, conocida como Optimization by PROmpting (OPRO)<\/a>.<\/p>\n

\n
\n
\n
\n \n <\/i>\n <\/button>\n \n Resumen\n <\/span>\n Resumen<\/span>\n <\/div>\n \n
    \n
  1. \n
  2. \n
  3. \n
  4. \n
    \n En resumen<\/a>\n <\/div>\n <\/li>\n <\/ol>\n
    <\/div>\n
    \n