{"id":32519,"date":"2024-02-21T14:04:07","date_gmt":"2024-02-21T14:04:07","guid":{"rendered":"https:\/\/www.techopedia.com\/de\/?p=32519"},"modified":"2024-02-21T14:04:07","modified_gmt":"2024-02-21T14:04:07","slug":"wie-deepminds-opro-llms-in-problemloesungstools-verwandelt","status":"publish","type":"post","link":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt","title":{"rendered":"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt"},"content":{"rendered":"

In der j\u00fcngsten Zeit wurden gro\u00dfe Anstrengungen zur Erweiterung von Sprachmodellen zu sogenannten Large Language Models (LLMs)<\/a> unternommen.<\/p>\n

Dabei werden gr\u00f6\u00dfere Modelle auf umfangreicheren Datens\u00e4tzen<\/a> mit h\u00f6herer Rechenleistung trainiert, was im Ergebnis konsistente und erwartete Verbesserungen ihrer Textgenerierungsf\u00e4higkeiten mit sich bringt.<\/p>\n

Je weiter LLMs wachsen, desto mehr neue F\u00e4higkeiten kommen dazu \u2013 ein Ph\u00e4nomen, das als kontextbezogenes Lernen oder Prompt-basiertes Lernen<\/a> bekannt ist.<\/p>\n

Diese neu entdeckten M\u00f6glichkeiten entwickeln sich auf nat\u00fcrliche Weise ohne spezielles Training und erm\u00f6glichen es LLMs, Aufgaben wie Rechnen, das Beantworten von Fragen und das Zusammenfassen von Texten auszuf\u00fchren, die alle durch den Kontakt mit nat\u00fcrlicher Sprache erworben wurden.<\/p><\/blockquote>\n

K\u00fcrzlich hat diese Begeisterung eine neue Dimension angenommen, als Forscher von Google DeepMind<\/a> LLMs mit ihrer Prompting-Technik, bekannt als Optimization by PROmpting (OPRO)<\/a>, in leistungsstarke Optimierungswerkzeuge verwandelt haben.<\/p>\n

Kontext- oder Prompt-basiertes Lernen: emergentes Verhalten von LLMs<\/span><\/h2>\n

Ein emergentes Verhalten bedeutet, dass ein System sein Verhalten bei kleinen Anpassungen drastisch ver\u00e4ndern kann, insbesondere wenn es einen bestimmten Schwellenwert erreicht.<\/p>\n

Ein Paradebeispiel f\u00fcr emergentes Verhalten ist Wasser. Wenn die Temperatur sinkt, \u00e4ndert sich das Verhalten des Wassers allm\u00e4hlich.<\/p><\/blockquote>\n

Es gibt jedoch einen kritischen Punkt, an dem etwas Bemerkenswertes passiert. Bei dieser bestimmten Temperatur durchl\u00e4uft das Wasser eine rasche und signifikante Umwandlung und geht vom fl\u00fcssigen Zustand in Eis \u00fcber, \u00e4hnlich dem Umlegen eines Schalters.<\/p>\n

Emergentes Verhalten ist nicht auf gewisse Bereiche beschr\u00e4nkt, sondern erstreckt sich auf verschiedene Gebiete wie Physik, Biologie, Wirtschaft und Systeme.<\/p>\n

Im Zusammenhang mit LLMs bedeutet dies jedoch, dass sie nach einer bestimmten Phase ihres Trainings in einen neuen Modus \u00fcberzugehen scheinen, in dem sie komplexe Probleme ohne explizites Training effektiv angehen k\u00f6nnen.<\/p><\/blockquote>\n

Dieses bemerkenswerte Verhalten wird in der Regel durch Prompts, d. h. Anweisungen in nat\u00fcrlicher Sprache, die LLMs zur Verf\u00fcgung gestellt werden, eingeleitet und gesteuert.<\/p>\n

Da die Qualit\u00e4t der LLM-Antworten eng mit der Qualit\u00e4t des Prompts verbunden ist, hat sich die Erstellung effektiver Prompts zu einem zentralen Element des LLM-Einsatzes entwickelt.<\/p>\n

So bietet z. B. die Chain-of-Thought-Technik die M\u00f6glichkeit, komplexe Probleme in Teilaufgaben zu zerlegen und diese miteinander zur L\u00f6sungsfindung zu verkn\u00fcpfen, so wie es bei mathematischen und logischen Prozessen der Fall ist.<\/p><\/blockquote>\n

Dieses Verhalten wird dadurch erreicht, dass sowohl die Zwischenschritte des Denkens als auch die endg\u00fcltige L\u00f6sung als Prompt zur Verf\u00fcgung gestellt werden, um LLMs zur Bew\u00e4ltigung dieser Aufgaben anzuleiten.<\/p>\n

Damit das LLM logische Aufgaben l\u00f6sen kann, wie z. B. \u201eIch gehe wandern und muss Wasser einpacken. Wie viele Wasserflaschen soll ich f\u00fcr eine 10-Meilen-Wanderung mitnehmen?\u201c, k\u00f6nnte man dem Modell sagen: \u201eEin allgemeiner Richtwert ist, dass man etwa 0,5\u20131 Liter (17\u201334 oz) Wasser pro Stunde Wanderung trinken sollte. F\u00fcr eine 10-Meilen-Wanderung ben\u00f6tigt man mindestens 1 bis 2 Flaschen, so dass zwei Flaschen mit je 16 oz ausreichend sein sollten.\u201c<\/p>\n

Entwicklung von LLMs zu leistungsf\u00e4higen Optimierern<\/span><\/h2>\n

In der aktuellen KI<\/a>-Forschung w\u00e4chst das Interesse an der Entwicklung innovativer Techniken, um LLMs effektiv anzuspornen und ihre neu entstehenden F\u00e4higkeiten zur L\u00f6sung von Problemstellungen zu nutzen.<\/p>\n

In diesem Zusammenhang haben die Wissenschaftler von Google DeepMind vor kurzem einen bedeutenden Durchbruch mit einer neuen Prompting-Technik erzielt, die als Optimization by PROmpting (OPRO) bekannt ist.<\/p><\/blockquote>\n

Sie kann LLMs zur L\u00f6sung von Optimierungsproblemen auffordern. Diese aufkommende F\u00e4higkeit erweitert den Nutzen der LLMs und macht sie zu wertvollen Probleml\u00f6sungstools in verschiedenen Bereichen.<\/p>\n

Denken Sie \u00fcber die M\u00f6glichkeiten nach. Ein komplexes technisches Problem kann in einfacher Sprache dargestellt werden, anstatt es formal zu definieren und den Aktualisierungsschritt mit einem programmierten Solver abzuleiten.<\/p>\n

Das Sprachmodell kann die Feinheiten erfassen und optimierte L\u00f6sungen vorschlagen.<\/p><\/blockquote>\n

In \u00e4hnlicher Weise kann die Finanzanalyse bei der Portfolio-Optimierung oder dem Risikomanagement helfen.<\/p>\n

Die Anwendungen umfassen ein breites Spektrum, vom Lieferkettenmanagement und der Logistik \u00fcber die wissenschaftliche Forschung bis hin zu kreativen Bereichen wie Kunst und Design.<\/p>\n

Wie funktioniert OPRO?<\/span><\/h2>\n

In einem Satz: OPRO nutzt die Leistungsf\u00e4higkeit von Sprachmodellen bei der L\u00f6sung von Problemen, indem es entsprechende Vorschl\u00e4ge generiert und auswertet, w\u00e4hrend es gleichzeitig regul\u00e4re Sprache versteht und daraus lernt.<\/p>\n

Es ist, als h\u00e4tte man einen cleveren Assistenten, der immer bessere L\u00f6sungen findet, je weiter man geht.<\/p><\/blockquote>\n

Ein wesentlicher Bestandteil dieses Prozesses ist der Meta-Prompt, der zwei Hauptkomponente umfasst:<\/p>\n

\u2022 Zun\u00e4chst wird das Problem in Worten erkl\u00e4rt, einschlie\u00dflich dessen, was erreicht werden soll, und aller Regeln, die befolgt werden m\u00fcssen. Wenn man zum Beispiel versucht, die Genauigkeit einer Aufgabe zu verbessern, k\u00f6nnten die Anweisungen lauten: \u201eFinde einen neuen Weg, um die Aufgabe sorgf\u00e4ltiger zu erledigen.\u201c<\/p>\n

\u2022 Zweitens wird eine Liste von L\u00f6sungen erstellt. Sie zeigt, welche davon das LLM bereits untersucht hat und ob sie gut waren. Diese Liste hilft dem LLM, Muster in den Antworten zu erkennen und auf denjenigen aufzubauen, die vielversprechend erscheinen.<\/p>\n

In jedem Schritt des Optimierungsprozesses schl\u00e4gt das LLM potenzielle L\u00f6sungen f\u00fcr die Optimierungsaufgabe vor. Dabei ber\u00fccksichtigt es sowohl die Problembeschreibung als auch die L\u00f6sungen, die es zuvor gesehen und bewertet hat und die im Meta-Prompt gespeichert sind.<\/p>\n

Sobald diese neuen L\u00f6sungen generiert sind, werden sie sorgf\u00e4ltig daraufhin untersucht, wie geeignet sie f\u00fcr die L\u00f6sung des Problems sind. Sie werden dem Meta-Prompt hinzugef\u00fcgt, wenn sie besser sind als die zuvor bekannten M\u00f6glichkeiten.<\/p><\/blockquote>\n

Dies wird zu einem Zyklus, in dem das LLM seine L\u00f6sungen auf der Grundlage seiner Erkenntnisse st\u00e4ndig verbessert.<\/p>\n

Zum besseren Verst\u00e4ndnis des Konzepts wird die Optimierung eines Finanzportfolios als Aufgabe gestellt.<\/p>\n

Ein \u201eOptimizer LLM\u201c wird mit einem Meta-Prompt versehen, der Investitionsparameter und Beispiele mit Platzhaltern f\u00fcr Optimierungsprompts enth\u00e4lt.<\/p>\n

Es erzeugt verschiedene Portfolioallokationen. Diese Portfolios werden von einem \u201ePerformance Analyzer LLM\u201c auf der Grundlage von Renditen, Risiken und anderen Finanzmetriken bewertet.<\/p><\/blockquote>\n

Die Prompts f\u00fcr die leistungsst\u00e4rksten Portfolios und ihre Performance-Metriken werden in den urspr\u00fcnglichen Meta-Prompt integriert.<\/p>\n

Dieser verfeinerte Meta-Prompt wird dann zur Verbesserung des urspr\u00fcnglichen Portfolios verwendet. Der Vorgang wiederholt sich dann zur Optimierung der Investmentergebnisse.<\/p>\n

Fazit<\/span><\/h2>\n

Innovationen wie OPRO sind ein Paradoxon \u2013 faszinierend angesichts ihres grenzenlosen Potenzials, den Horizont zu erweitern, und beunruhigend, da sie eine \u00c4ra einl\u00e4uten, in der KI autonom komplizierte Prozesse, einschlie\u00dflich der Optimierung, durchf\u00fchren kann, wodurch die Grenzen zwischen menschlicher Kontrolle und Sch\u00f6pfung verschwimmen.<\/p>\n

Die F\u00e4higkeit, Large Language Models (LLMs) in leistungsstarke Optimierer zu verwandeln, macht OPRO zu einem robusten und vielseitigen Probleml\u00f6sungsansatz.<\/p><\/blockquote>\n

Die M\u00f6glichkeiten von OPRO erstrecken sich auf die Bereiche Technik, Finanzen, Lieferkettenmanagement und mehr und bieten effiziente, zukunftsweisende L\u00f6sungen.<\/p>\n

Es stellt einen bedeutenden Schritt in der Entwicklung der KI dar: LLM k\u00f6nnen kontinuierlich lernen und sich verbessern, was neue Wege zur Probleml\u00f6sung er\u00f6ffnet.<\/p>\n","protected":false},"excerpt":{"rendered":"

In der j\u00fcngsten Zeit wurden gro\u00dfe Anstrengungen zur Erweiterung von Sprachmodellen zu sogenannten Large Language Models (LLMs) unternommen. Dabei werden gr\u00f6\u00dfere Modelle auf umfangreicheren Datens\u00e4tzen mit h\u00f6herer Rechenleistung trainiert, was im Ergebnis konsistente und erwartete Verbesserungen ihrer Textgenerierungsf\u00e4higkeiten mit sich bringt. Je weiter LLMs wachsen, desto mehr neue F\u00e4higkeiten kommen dazu \u2013 ein Ph\u00e4nomen, das […]<\/p>\n","protected":false},"author":286532,"featured_media":32522,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_lmt_disableupdate":"","_lmt_disable":"","footnotes":""},"categories":[18,32],"tags":[],"class_list":["post-32519","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-kuenstliche-intelligenz","category-machine-learning"],"acf":[],"yoast_head":"\nWie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt<\/title>\n<meta name=\"description\" content=\"Die Forscher von Google DeepMind haben gro\u00dfe Sprachmodelle mit ihrer Prompting-Technik in leistungsstarke Optimierungswerkzeuge verwandelt.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt\" \/>\n<meta property=\"og:description\" content=\"Die Forscher von Google DeepMind haben gro\u00dfe Sprachmodelle mit ihrer Prompting-Technik in leistungsstarke Optimierungswerkzeuge verwandelt.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\" \/>\n<meta property=\"og:site_name\" content=\"Techopedia Deutsch\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/techopedia\/\" \/>\n<meta property=\"article:author\" content=\"https:\/\/scholar.google.com.pk\/citations?user=CuQ9S_kAAAAJ&hl=en\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-21T14:04:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"1200\" \/>\n\t<meta property=\"og:image:height\" content=\"600\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Dr. Tehseen Zia\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@techopedia\" \/>\n<meta name=\"twitter:site\" content=\"@techopedia\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Tehseen Zia\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\"},\"author\":{\"name\":\"Dr. Tehseen Zia\",\"@id\":\"https:\/\/www.techopedia.com\/de\/#\/schema\/person\/4666e1da6b96a761659d23b56e088ce0\"},\"headline\":\"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt\",\"datePublished\":\"2024-02-21T14:04:07+00:00\",\"dateModified\":\"2024-02-21T14:04:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\"},\"wordCount\":1127,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/#organization\"},\"image\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg\",\"articleSection\":[\"K\u00fcnstliche Intelligenz\",\"Machine Learning\"],\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\",\"url\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\",\"name\":\"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt\",\"isPartOf\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg\",\"datePublished\":\"2024-02-21T14:04:07+00:00\",\"dateModified\":\"2024-02-21T14:04:07+00:00\",\"description\":\"Die Forscher von Google DeepMind haben gro\u00dfe Sprachmodelle mit ihrer Prompting-Technik in leistungsstarke Optimierungswerkzeuge verwandelt.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage\",\"url\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg\",\"contentUrl\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg\",\"width\":1200,\"height\":600},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.techopedia.com\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"K\u00fcnstliche Intelligenz\",\"item\":\"https:\/\/www.techopedia.com\/de\/kuenstliche-intelligenz\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Machine Learning\",\"item\":\"https:\/\/www.techopedia.com\/de\/machine-learning\"},{\"@type\":\"ListItem\",\"position\":4,\"name\":\"K\u00fcnstliche Intelligenz\",\"item\":\"https:\/\/www.techopedia.com\/de\/kuenstliche-intelligenz\"},{\"@type\":\"ListItem\",\"position\":5,\"name\":\"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.techopedia.com\/de\/#website\",\"url\":\"https:\/\/www.techopedia.com\/de\/\",\"name\":\"Techopedia\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.techopedia.com\/de\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.techopedia.com\/de\/#organization\",\"name\":\"Techopedia\",\"url\":\"https:\/\/www.techopedia.com\/de\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/www.techopedia.com\/de\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/08\/techopedia-light.svg\",\"contentUrl\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/08\/techopedia-light.svg\",\"width\":209,\"height\":37,\"caption\":\"Techopedia\"},\"image\":{\"@id\":\"https:\/\/www.techopedia.com\/de\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/techopedia\/\",\"https:\/\/x.com\/techopedia\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.techopedia.com\/de\/#\/schema\/person\/4666e1da6b96a761659d23b56e088ce0\",\"name\":\"Dr. Tehseen Zia\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/www.techopedia.com\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/05\/tehseen_zia.jpeg\",\"contentUrl\":\"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/05\/tehseen_zia.jpeg\",\"caption\":\"Dr. Tehseen Zia\"},\"description\":\"Dr. Tehseen Zia hat einen Doktortitel und mehr als 10 Jahre Forschungserfahrung auf dem Gebiet der K\u00fcnstlichen Intelligenz (KI) nach seiner Promotion. Er ist Assistenzprofessor und leitet die KI-Forschung an der Comsats University Islamabad und ist Mitbegr\u00fcnder des National Center of Artificial Intelligence Pakistan. In der Vergangenheit hat er als Forschungsberater f\u00fcr das von der Europ\u00e4ischen Union finanzierte KI-Projekt Dream4cars gearbeitet.\",\"sameAs\":[\"https:\/\/scholar.google.com.pk\/citations?user=CuQ9S_kAAAAJ&hl=en\",\"https:\/\/www.linkedin.com\/in\/tehseen-zia-48764638\/?originalSubdomain=pk\"],\"knowsAbout\":[\"Assistenz Professor an der Comsats Universit\u00e4t Islamabad\"],\"url\":\"https:\/\/www.techopedia.com\/de\/author\/tehseenziade\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt","description":"Die Forscher von Google DeepMind haben gro\u00dfe Sprachmodelle mit ihrer Prompting-Technik in leistungsstarke Optimierungswerkzeuge verwandelt.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt","og_locale":"de_DE","og_type":"article","og_title":"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt","og_description":"Die Forscher von Google DeepMind haben gro\u00dfe Sprachmodelle mit ihrer Prompting-Technik in leistungsstarke Optimierungswerkzeuge verwandelt.","og_url":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt","og_site_name":"Techopedia Deutsch","article_publisher":"https:\/\/www.facebook.com\/techopedia\/","article_author":"https:\/\/scholar.google.com.pk\/citations?user=CuQ9S_kAAAAJ&hl=en","article_published_time":"2024-02-21T14:04:07+00:00","og_image":[{"width":1200,"height":600,"url":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg","type":"image\/jpeg"}],"author":"Dr. Tehseen Zia","twitter_card":"summary_large_image","twitter_creator":"@techopedia","twitter_site":"@techopedia","twitter_misc":{"Written by":"Dr. Tehseen Zia","Est. reading time":"5 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#article","isPartOf":{"@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt"},"author":{"name":"Dr. Tehseen Zia","@id":"https:\/\/www.techopedia.com\/de\/#\/schema\/person\/4666e1da6b96a761659d23b56e088ce0"},"headline":"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt","datePublished":"2024-02-21T14:04:07+00:00","dateModified":"2024-02-21T14:04:07+00:00","mainEntityOfPage":{"@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt"},"wordCount":1127,"commentCount":0,"publisher":{"@id":"https:\/\/www.techopedia.com\/de\/#organization"},"image":{"@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage"},"thumbnailUrl":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg","articleSection":["K\u00fcnstliche Intelligenz","Machine Learning"],"inLanguage":"de-DE","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#respond"]}]},{"@type":"WebPage","@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt","url":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt","name":"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt","isPartOf":{"@id":"https:\/\/www.techopedia.com\/de\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage"},"image":{"@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage"},"thumbnailUrl":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg","datePublished":"2024-02-21T14:04:07+00:00","dateModified":"2024-02-21T14:04:07+00:00","description":"Die Forscher von Google DeepMind haben gro\u00dfe Sprachmodelle mit ihrer Prompting-Technik in leistungsstarke Optimierungswerkzeuge verwandelt.","breadcrumb":{"@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt"]}]},{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#primaryimage","url":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg","contentUrl":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2024\/02\/Google-DeepMind-LLMs.jpeg","width":1200,"height":600},{"@type":"BreadcrumbList","@id":"https:\/\/www.techopedia.com\/de\/wie-deepminds-opro-llms-in-problemloesungstools-verwandelt#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.techopedia.com\/de\/"},{"@type":"ListItem","position":2,"name":"K\u00fcnstliche Intelligenz","item":"https:\/\/www.techopedia.com\/de\/kuenstliche-intelligenz"},{"@type":"ListItem","position":3,"name":"Machine Learning","item":"https:\/\/www.techopedia.com\/de\/machine-learning"},{"@type":"ListItem","position":4,"name":"K\u00fcnstliche Intelligenz","item":"https:\/\/www.techopedia.com\/de\/kuenstliche-intelligenz"},{"@type":"ListItem","position":5,"name":"Wie DeepMinds OPRO LLMs in Probleml\u00f6sungstools verwandelt"}]},{"@type":"WebSite","@id":"https:\/\/www.techopedia.com\/de\/#website","url":"https:\/\/www.techopedia.com\/de\/","name":"Techopedia","description":"","publisher":{"@id":"https:\/\/www.techopedia.com\/de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.techopedia.com\/de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE"},{"@type":"Organization","@id":"https:\/\/www.techopedia.com\/de\/#organization","name":"Techopedia","url":"https:\/\/www.techopedia.com\/de\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/www.techopedia.com\/de\/#\/schema\/logo\/image\/","url":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/08\/techopedia-light.svg","contentUrl":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/08\/techopedia-light.svg","width":209,"height":37,"caption":"Techopedia"},"image":{"@id":"https:\/\/www.techopedia.com\/de\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/techopedia\/","https:\/\/x.com\/techopedia"]},{"@type":"Person","@id":"https:\/\/www.techopedia.com\/de\/#\/schema\/person\/4666e1da6b96a761659d23b56e088ce0","name":"Dr. Tehseen Zia","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/www.techopedia.com\/de\/#\/schema\/person\/image\/","url":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/05\/tehseen_zia.jpeg","contentUrl":"https:\/\/www.techopedia.com\/de\/wp-content\/uploads\/sites\/2\/2023\/05\/tehseen_zia.jpeg","caption":"Dr. Tehseen Zia"},"description":"Dr. Tehseen Zia hat einen Doktortitel und mehr als 10 Jahre Forschungserfahrung auf dem Gebiet der K\u00fcnstlichen Intelligenz (KI) nach seiner Promotion. Er ist Assistenzprofessor und leitet die KI-Forschung an der Comsats University Islamabad und ist Mitbegr\u00fcnder des National Center of Artificial Intelligence Pakistan. In der Vergangenheit hat er als Forschungsberater f\u00fcr das von der Europ\u00e4ischen Union finanzierte KI-Projekt Dream4cars gearbeitet.","sameAs":["https:\/\/scholar.google.com.pk\/citations?user=CuQ9S_kAAAAJ&hl=en","https:\/\/www.linkedin.com\/in\/tehseen-zia-48764638\/?originalSubdomain=pk"],"knowsAbout":["Assistenz Professor an der Comsats Universit\u00e4t Islamabad"],"url":"https:\/\/www.techopedia.com\/de\/author\/tehseenziade"}]}},"modified_by":"vukstojkovic","_links":{"self":[{"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/posts\/32519"}],"collection":[{"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/users\/286532"}],"replies":[{"embeddable":true,"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/comments?post=32519"}],"version-history":[{"count":0,"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/posts\/32519\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/media\/32522"}],"wp:attachment":[{"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/media?parent=32519"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/categories?post=32519"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.techopedia.com\/de\/wp-json\/wp\/v2\/tags?post=32519"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}