Primär basiert generative KI (genKI) auf großen Sprachmodellen (engl. large language model, LLM), die ihrerseits auf angelernten künstlichen neuronalen Netzen beruhen. LLMs wurden in den vergangenen Jahren durch eine gigantische Menge an Inputdaten aufgebaut, die die unüberblickbare Vielzahl der im Internet gespeicherten Informationen berücksichtigt und laufend aktualisiert werden. Ein bekanntes LLM ist GPT-x, das von der Firma OpenAI entwickelt wurde und durch ChatGPT allgemein bekannt wurde. Durch statistische Verfahren, insbesondere durch den gezielten Aufbau und die Gewichtung der Verknüpfungen (‚Synapsen‘) in diesen künstlichen Netzen kann für eine bestimmte Inputvariable die Wahrscheinlichkeit eines passenden Outputs berechnet werden. Wir kennen dies von der digitalen Bilderkennung: etwas wird „erkannt“, weil das gescannte Objekt bei einer Vielzahl von möglichen, in einer Vergleichsdatenbank gespeicherten Mustern, demjenigen zugewiesen, dem es am meisten ähnelt (ein grüner, tennisballgroßer Gegenstand ist eben sehr viel wahrscheinlicher ein Apfel als eine Banane). Was in der Objekterkennung intuitiv einleuchtet, erscheint bei der Generierung von Texten fast schon als ‚Magie‘; es handelt sich aber letztendlich um dieselbe Technik. Aus einer Vielzahl eingelernter Textquellen wird bei einer Anfrage (z.B. „Wie entsteht ein Kugelblitz?“) eben dasjenige Ergebnis ausgegeben, das im LLM den besten (= wahrscheinlichsten) Match erzeugt. Im Vergleich zur Bilderkennung schafft es jedoch die genKI – und darauf beruht wohl die derzeitige Faszination –, in der Texterzeugung quasi etwas Neues zu erzeugen und durch die mitgelieferten Quellenangaben die wissenschaftliche Arbeitsweise und eine scheinbar intellektuelle Leistung nachzuahmen.