• Bienenvolk@feddit.org
    link
    fedilink
    arrow-up
    10
    ·
    1 day ago

    Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an “textlicher Kreativität”, was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.

    Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃

    • Toe@feddit.org
      link
      fedilink
      arrow-up
      1
      ·
      20 hours ago

      Man macht oft den Fehler durch Technik etwas aus der realen Welt 1:1 ersetzen zu wollen. Für eine statistischer Auswertung oder ggf das zuordnen ist die Technik mit entsprechendem Training bestimmt geeignet. Ein Sprachmodell möglicherweise gut um die Einstiegshürde zu nehmen.Das könnte Therapeuten entlasten nicht vollständig ersetzen. Erwachsene sind meist gefestigter und bei einer anfängliche Kommunikation mit Technik dürfte weniger Fehler entstehen, als im sensiblen bzw. geringer gefedrigten Jugendalter. Doch laut Beitrag läuft die Praxis gerade umgekehrt. Jugendliche wenden sich an Technik und Erwachsene verbrauchen die knappe Zeit der Therapeuten.

      Das in die Technik investierte Geld könnte man sicher auch an anderer Stelle gut investieren. Wir sprechen jedoch nicht von entweder - oder.

    • FooBarrington@lemmy.world
      link
      fedilink
      arrow-up
      3
      ·
      1 day ago

      Es müsste erwiesen sein, dass die KI selbst im schlimmsten Fall nicht schlechter handelt als der durchschnittliche Psychologe. Da sind wir weit, weit, weit von entfernt.

      • Bienenvolk@feddit.org
        link
        fedilink
        arrow-up
        4
        ·
        1 day ago

        Im schlimmsten Fall empfiehlt KI, sich umzubringen [1], also denke ich mal, das ist recht eindeutig.

        Und generell, woher kommt diese implizite Ablehnung gegenüber Psychologen?

        1

        • FooBarrington@lemmy.world
          link
          fedilink
          arrow-up
          1
          ·
          1 day ago

          Ich glaube nicht, dass es eine Ablehnung gegenüber Psychologen ist. Es gibt einfach zu wenige - wenn KI auf einem ähnlichen Level arbeiten könnte, hätten plötzlich viele Leute Zugang zu psychologischer Hilfe, die aktuell keinen haben.