Mal eine Frage an Herrn Ametsreiter, Vorstandsvorsitzender der Bertelsmannstiftung:

Man brauche große Data-Center und eine leistungsfähige Glasfaseranbindung, um KI überhaupt ausspielen zu können.

Ich möchte niemandem Dummheit unterstellen, ohne vorher gefragt zu haben, daher vielleicht erst mal: Wie, glauben Sie, war die KI-Forschung der 60er Jahre, die zweifellos “KI ausgespielt” hat, an irgendwas “angebunden”?

  • lemmysarius@feddit.org
    link
    fedilink
    arrow-up
    2
    arrow-down
    1
    ·
    2 days ago

    Das ist richtig. KI ist ein eher ein Sammelbegriff und nicht klar definierbar.

    Hier hatte ich LLMs gemeint.

    “Verstehen” ist auch mehr als Metapher gemeint, da ich größere Vorkenntnisse über die Technologie in der Comunnity hier erwartet hatte. Ich hätte näher ausführen sollen was damit genau gemeint ist.

    Der “context” ist ein temporärer Bereich der bei jedem Chat mit einer LLM neu kreiert wird. Darin denkt/arbeitet/schreibt/generiert das Modell und kann theoretisch gesehen so groß sein wie es die Hardware erlaubt. Also in den hunderte Millionen token. Das nützt aber nichts wenn das Modell nur noch Buchstabensalat generiert wenn die trainierte Länge überschritten wurde.

    Wichtig zu meinem Kommentar ist hier, egal wie lang die beworbene Länge context ist, (bei den meisten 128k-200k und Google 1m), die tatsächliche Länge womit das Modell arbeiten kann ist meist drastisch kürzer.

    Ja, das Modell kann bis zum Ende des context sinnvoll klingende Sätzen schreiben ohne komplett zu kollabieren, das bedeutet jedoch nicht das das geschriebene tatsächlich Sinn ergibt.

    Mein “Verstehen” bezieht sich darauf, wieviel context das Modell nutzen kann und trotzdem mit Sinn antworten kann. Wird ihm also ein langer Artikel oder eine große Studie eingespeist, sollte es keine Details vergessen oder übersehen.

    Wird z.B. ein 200k Modell randvoll mit einer Codebase gestopft, ist es quasi garantiert das es Funktionen im 60-200k Bereich vergisst. Es kann wahrscheinlich nicht mal annähernd wiedergeben was gegen Ende des context überhaupt steht.

    Das meine ich mit Verstehen, weil das Modell zwar theoretisch die Informationen im context hat, damit aber nichts anfangen kann.