Vědci z TU Wien zjistili, že takové jazykové modely mohou překvapivě pomáhat jiným programům řešit logické úkoly, rychleji i lépe. LLM přitom nemusí tyto problémy skutečně zkoumat a sledovat postup řešení; tedy v tom smyslu, že nemohou samy provádět odpovídající kód. Rozpoznávají však někdy vzorce, které dosud přehlíželi lidští odborníci i umělá inteligence jiného typu. To znamená, že jazykové modely se mohou stát velmi užitečnými i v oblasti, kde byly dlouho považovány za fungující naopak špatně (logické odvozování, matematika, hry typu sudoku…).
V současné době existují výpočetní nástroje, které takové úkoly dokážou velmi dobře řešit. Problém je pro formulován ve formálním matematickém jazyce, systém pak aplikuje logická pravidla, aby dosáhl výsledku transparentním, na pravidlech založeným způsobem. Toto se někdy označuje jako symbolická AI.
Velké jazykové modely (LLM) však fungují zcela odlišným způsobem. Nejsou založeny na pevných, předem naprogramovaných pravidlech, ale jejich chování vychází z obrovského množství dat, na kterých byly trénovány. To jim umožňuje generovat jazyk, ale nelze následně přesně vysvětlit, proč vyprodukovaly konkrétní odpověď. LLM patří k tzv. subsymbolické umělé inteligenci. Tento druh AI zaznamenal v posledních letech dramatický nárůst, ale obecně se považuje za nevhodný pro striktně logické úkoly.
Nová studie (hlavní autorka Florentina Voboril z Vídeňské technické univerzity) ovšem ukazuje, že symbolickou a subsymbolickou AI lze kombinovat, aby se využily silné stránky obou přístupů. V symbolické AI se často setkáváme s ohromujícím množstvím možností, z nichž je třeba vybrat tu nejlepší: mnoho způsobů, jak vyplnit sudoku, mnoho možných šachových tahů, mnoho způsobů, jak vytvořit rozvrhy směn.
„Často je nemůžete jednoduše všechny vyzkoušet. Proto je velmi užitečné mít určitá pravidla, která od začátku eliminují část vyhledávacího prostoru,“ vysvětluje F. Voboril. „Představte si, že se snažíme najít nejkratší cestu z bludiště. Pokud již vím, že určité části bludiště nejsou propojeny s žádným východem, mohu tyto oblasti zablokovat a soustředit se na zbytek. Tímto způsobem najdete lepší řešení rychleji.“ Symbolická AI funguje velmi podobně: dodatečná pravidla (tzv. streamliners) mohou někdy pomoci dosáhnout výsledku mnohem rychleji.
Na TU Wien k identifikaci takových streamlinerů zkusili použít právě LLM. Kód, který normálně zpracovává symbolická AI, se zadává do LLM. LLM tento kód neprovádí; dalo by se říci, že problém nemůže skutečně „pochopit“. Může však jako výstup navrhnout další pravidla (přirozený jazyk, kód, kombinace…), která lze vložit do kódu, aby specializovaná symbolická AI běžela rychleji nebo poskytovala lepší výsledky.
„Tímto způsobem jsme byli schopni vyřešit určité problémy výrazně rychleji, než tomu bylo dosud možné pomocí symbolické AI. U jednoho z těchto problémů jsme dokonce stanovili nové světové rekordy – našli jsme řešení, která jsou lepší než všechna dosud známá,“ říká F. Voboril.
To otevírá zcela novou a překvapivou oblast pro výzkum AI: dvě větve AI, které byly tradičně považovány za oddělené, se při společném použití mohou stávat silnějšími a výkonnějšími.
Florentina Voboril et al, Generating Streamlining Constraints with Large Language Models, Journal of Artificial Intelligence Research (2025). DOI: 10.1613/jair.1.18965
Florentina Voboril et al, Balancing Latin Rectangles with LLM-Generated Streamliners, Schloss Dagstuhl – Leibniz-Zentrum für Informatik (2025). DOI: 10.4230/lipics.cp.2025.36
Zdroj: Vienna University of Technology / TechXplore.com, přeloženo / zkráceno













