10 Comments

Nach meiner Kenntnis wird ChatGPT von tausenden bezahlten Menschen/Fachleuten permanent angepasst bzw trainiert.

Es erscheint mir naheliegend, dass für diese bezahlten Trainer aktuell die allerhöchste Priorität dahingehend vorgegeben ist, ChatGPT bezüglich der entschwärzten RKI-Protokolle 'richtig' zu trainieren.

Möglicherweise erklärt dies (zum Teil) die Diskrepanz der Antworten.

Wenn die zweite Anfrage in unmittelbarer zeitlicher Nähe nach der ersten erfolgt ist, würde dies die oben genannten Ausführungen indes in Frage stellen.

Wie flüchtig Suchergebnisse zu kritischen Themen sind, konnte ich unlängst bei einer kurzen Recherche bezüglich SV40 feststellen. Am 4. April erhielt ich von der Suchmaschine eine Vielzahl sehr informativer Suchergebnisse angezeigt, die vielfach ein hohes Gefährdungspotenzial erkennen ließen. (Viele davon habe ich gespeichert). Sechs Wochen später erhielt ich bei derselben Suchanfrage nur noch 'weichgespülte' Ergebnisse. Sämtliche kritischen Informationen waren verschwunden.

Expand full comment
author

Man bräuchte eine eigene, offline KI, die nicht am Netz hängt und nur lernt, was man ihr gibt. Bin aber kein ITler.

Expand full comment
Jul 25Liked by DrBines verbales Vitriol

Mike Adams hat so etwas entwickelt: https://brighteon.ai

Wenn ich mich recht entsinne, kann man der Software auch weitere Texte "zufüttern". Soweit ist sie natürlich nur mit englischsprachigen Quellen trainiert.

Expand full comment

Wenn man bedenkt, dass ganze Bereiche im Web den Bot´s und "Harvestern" von ChatGPT vor die Füße geworfen werden, damit die "Richtung" stimmt.

Expand full comment

Die Maskenpflicht könnte zu Körperverletzung geführt haben, da Ausnahmen und Atteste nur sehr restriktiv möglich waren. Dieser Aspekt sollte nicht vergessen werden.

Expand full comment

Zum 'Vergessen' von ChatGPT, die oben gezeigt wurde:

ChatGPT ist eine Instanz einer Klasse von Neuronalen Netzen die als 'LLM' oder 'Large Language Models' bezeichnet werden. Sie werden mit billionen von Worten aus frei-zugänglichen Texten 'trainiert'. Dabei entstehen im 'Hirn' des LLMs Assoziationen zwischen Wörtern und auch Sätze und auch die damit verbunden Konzepte. Diese Assoziationen leiten die LLM dabei, Texte zu formulieren nach dem Schema "Was ist das nächstwahrscheinlichste Wort?"

Was für die Forscher überraschend war, war dass eine gewisse Intelligenz entstanden ist, wodurch die LLM die Intention einer Frage zu verstehen scheint, und darauf relevante Antworten zu gestalten vermag. Es ist eine wundersame Fähigkeit.

Eine Eigenschaft die sich alle LLMs teilen, ist die begrenzte 'Context Window'. Das kann man sich wie ein Kurzzeitgedächnis vorstellen. Gegenwärtige LLMs arbeiten mit ein Kontext Fenster zwischen ein paar tausend bis hundert tausend 'Tokens', welche ungefähr mit Worten verglichen werden können. ChatGPT hat hier erstaunlich viele Daten erfasst und zusammengefasst. Aber irgendwann war halt der Kontext Fenster voll und es fing an, frühere Antworten und Wissen zu vergessen.

Erstaunlich für mich, wie wenig Zensur bzw. 'Bias' OpenAI in dieser Interaktion erblicken ließ.

Für Menschen, die eher abgeneigt sind, den Platzhirsch OpenAI mit ihre Daten zu füttern, gibt es lediglich tausende von LLM Modelle, die offen und kostenlos zugänlich auf huggingface zum herunterladen bereitgestllt werden, und die auf dem heimichen PC laufen.

Die besten frei zugänglichen LLMs brauchen um 48GB RAM, vorzüglich auf einer KI-Beschleunidgten Grafikkarte. Die z.Zt. günstigste Möglichkeit, diese mit nutzbare Geschwindigkeit auszuführen, gelingt mit zwei Nvidia RTX3090 Grafikkarten; Kosten zusammen um die 1500€ im Gebrauchtmarkt.

Es gibt auch fähige LLMs in der '7b' und '8b' klasse, die mit einer 8GB Grafikkarte, oder auch ganz ohne, nur auf CPU betrieben werden können.

Es steht dem motivierten PC-Anwender eigentlich nichts im Wege, eine KI zuhause zu haben, womit keine Daten an Fremde vermittelt werden: Sie funktionieren auch ohne jegliche Internet Verbindung.

Zuletzt möchte ich euch nicht vorenthalten, dass einige Freie LLM Modelle auch online bei HuggingFace kostenlos zur verfügung stehen. https://huggingface.co/chat/

Expand full comment

Die Diskrepanz in den Einschätzungen basierend auf den selben Protokollen könnte sich aus den ChatGPT-Inputfiltern ergeben.

Während in den ersten Prompts nicht der Begriff "Regierung" vorkam, enthielt der angeblich neutralere Prompt den String: "Maßnahmen der deutschen Regierung".

Da zünden dann offenbar sofort ganz banale Mechanismen, wie man sie auch von YouTube und deren Uploadfiltern kennt.

Das ist Teil unserer neuartigen geleiteten Demokratie.

Expand full comment

Großartige Sache dieses Vorgehen, vielen Dank für die Aufklärungsarbeit

Expand full comment
author

Der Dank geht an den Autor auf Twitter. Sein Tweet wird aber in ein paar Tagen ohne LInk nur noch schwer zu finden sein.

Expand full comment

Super Idee!

Expand full comment