Toto logicky bude vždy slabina, dokým to nebude "AI" ale len jazykový model, ktorý nepracuje s významom ale tokenmi (čož sú len nejaké substringy). Stačí sa pozrieť na https://platform.openai.com/tokenizer a napísať si tam nejaký text, a uvidím že on vlastne ani nevidí jednotlivé písmená či slová ale len časti textu. AI robí len to že za sekvenciu tokenov dosadí ďalší token na základe výskytu v trénovacích dátach a generačnej teploty. To v žiadnom prípade nemôže žiadne logické úlohy zvládať.