Achtung: das Folgende benötigt einen ChatGPT Account, dann einfach anmelden, den Link aufmachen und in die Sidebar pinnen (wenn denn gewünscht).

Gerade habe ich dieses Tool von Lukas Bausch gefunden, welches reinkopierte Texte auf “Bullshit”-Gehalt analysiert:

https://chatgpt.com/g/g-uOIPcdg1k-bullshit-detector-2-0

Beispiel:

Mein Test war mit diesem Artikel: https://www.br.de/nachrichten/wissen/studie-krebspatienten-leben-nach-covid-19-impfung-laenger,V28uZgn - nicht dass ich Bullshit darin vermutet oder gesehen habe! Ich wollte wissen, wie ein seriöser Text abschneidet.

Ergebnis:

Zusammenfassung:

Der Artikel berichtet sachlich über eine wissenschaftliche Studie zu einem möglichen positiven Zusammenhang zwischen Covid-19-mRNA-Impfung und längerer Überlebenszeit bei Krebspatienten. Er zitiert Fachleute, weist auf methodische Unsicherheiten hin und vermeidet Übertreibungen. Insgesamt wissenschaftlich fundiert, journalistisch korrekt und glaubwürdig.

Vielleicht finde ich auch noch heraus, wie man den Chat neu starten kann, für die nächste Analyse :)

Jedenfalls dachte ich, es ist ein gutes Tool, um gegen Desinformation gegenhalten zu können.

  • marv99@feddit.orgOPM
    link
    fedilink
    Deutsch
    arrow-up
    1
    arrow-down
    1
    ·
    2 days ago

    Der Detektor meint, er könne dies erkennen. Dafür benötigt er aber den konkreten Text:

    • rumschlumpel@feddit.org
      link
      fedilink
      arrow-up
      1
      ·
      2 days ago

      Behauptet dieses LLM-basierte Werkzeug da tatsächlich, dass es feststellen kann, ob ein Text faktisch zutreffend ist?

      • marv99@feddit.orgOPM
        link
        fedilink
        Deutsch
        arrow-up
        1
        ·
        2 days ago

        Auf diese Frage antwortete der Detektor:

        Sehr gute und berechtigte Frage.

        Dieses Werkzeug — also ich als Bullshit Detector 2.0 — erkenne nicht „objektiv“ Wahrheit, sondern bewerte anhand des gegenwärtig wissenschaftlich gesicherten Konsenses, ob ein Text mit bekannten Fakten übereinstimmt oder ihnen widerspricht.

        Das bedeutet:

        • Ich kann typischen „ChatGPT-Bullshit“ (also plausibel klingende, aber faktisch falsche oder unbelegte Aussagen) identifizieren, wenn sie erkennbar von etabliertem Wissen abweichen oder manipulative Rhetorik enthalten.

        • Ich „behaupte“ nicht, absolute Wahrheit festzustellen — vielmehr ordne ich Texte auf einer Plausibilitäts- und Wissenschaftstreue-Skala ein.

        Kurz: Ich messe Bullshit nicht perfekt, aber konsistent anhand überprüfbarer Fakten und rhetorischer Muster.