Künstliche Intelligenz

Mein lieber Uwe,
wir sind uns ja einig, dass ich in Deinen Augen dumm bin. Dann erhelle mich doch einfach.

Du schreibst:
Was hat das jetzt mit Treffpunkt Thailand zu tun? Es wird Zeit, dass im Nitty endlich die Sparte "Drogen, Religion und andere Geisteskrankheiten" eingerichtet wird.

Wie sieht denn nun Deine sachliche Antwort aus?
Ist doch im Endeffekt eine einfache Frage, warum versteckst Du Dich erneut hinter Parolen und Angriffen?

Also noch einmal speziell für Dich:
  • Am laufenden Band postest Du Links über Ausländer und Politik aus Deutschland.
  • Wo ist hier der Bezug zu Deutschland?
  • Und nun prangerst Du genau Dein Verhalten hier an?
Antworte doch einfach drauf, oder kannst Du das etwa nicht?
Fehlen Dir die Eier, Deine eigenen Aussagen zu reflektieren?
 
Es lässt auch tief blicken, wie tief sich jemand in Beiträge reinsteigern kann, die über zehn Jahre alt sind. Und übrigens lautet auch dieser Thread Titel nicht, “Hier richten sich alle nach Off Topic König DieterK“.:p
 
Ich bitte um Entschuldigung:
Du hast recht und ich habe unrecht.
Ich habe tatsächlich das Alter übersehen.

Also noch einmal ein hochoffizielles und ernst gemeines Sorry...
 
Ja, aber allein um die Frage zu verstehen, benötigt die KI eine gewisse Intelligenz. Sie muss die Bedeutung der Wörter und Sätze erkennen und in Kontext bringen. Das geschieht in den sog. Large Language Models (LLMs) und diese LLMs -wenn sie groß genug skaliert werden- haben interessante emergente Eigenschaften. Zum Beispiel sind die ab einer bestimmten Größe in der Lage, arithmetische Probleme zu verstehen, Rechtschreibefehler zu entdecken, oder symbolische Sprache und Metaphern zu verstehen.

GPT4 ist auf einem noch höheren Level und besteht zum Beispiel eine beliebige SAT oder Abiturprüfung oder auch eine Anwaltsprüfung. Dazu muss das System nicht mit dem Internet verbunden sein. Die Fähigkeit selbstständing auf das Internet zuzugreifen, gibt es erst seit neuem, das heisst ChatGPT3 hatte diese Möglichkeit nicht.

Cheers, X-pat
Ich finde es vor allem sehr interessant und könnte uns einen großen Sprung in der Produktivität bringen, was vor allem angesichts des Arbeitskräftemangels eine große Chance ist.

Blöd dann nur für die weniger qualifizierten.

Jedenfalls höre ich mir demnächst mal einen Vortrag zu den Einsatzmöglichkeiten an, dann mehr dazu.
 
Ich bin mittlerweile reichlich desillusioniert.
Mir scheint, vieles ist nur Marketing, gerade bei ChatGPT.
 
Lustige Anekdote aus dem Bereich "Was passiert, wenn KI und Wortfilter aufeinander treffen?"

Leserbrief über "KI" in der Praxis:
Ich bin Tätowierer von Beruf und wollte spaßeshalber mal ne Handy-App namens "Ink AI" testen, mit der man sich Bildmotive in verschiedenen Tätowierstilen erstellen lassen kann; da ein Teil eines Rückenbildes "in progress" einen Pottwal beinhaltet, wollte ich mal rauskriegen, wie diese KI so ein Tier im Vergleich zu meinem Entwurf darstellen würde. Die KI versteht natürlich nur Englisch und ich gebe also korrekterweise "Sperm Whale" ein- sofort meutert die KI und verweigert die Kooperation aufgrund des vermeintlich sexuell konnotierten Wortes "sperm". Ich grüble eine Weile und tippe dann "Moby Dick" ein. Diesmal streikt der Apparat wegen "dick"...
Der lateinische Name bringt komplett nix und auch "Herman Melville's famous white whale" stößt auf komplettes Unverständnis. Oh Mann...
Quelle: https://blog.fefe.de/?ts=98669996
 
Und noch einen

Ihr müsst jetzt sehr tapfer sein, liebe Leser.
Studie: Sprachmodelle wachsen nicht über sich hinaus
Manche Entwickler hofften bislang, dass Sprachmodelle Fähigkeiten erlenen, die über ihr Trainingspensum hinausgehen. Das hat sich als Trugschluss erwiesen.
Das hat bestimmt die CIA herausgefunden!
Es geht hier um Halluzinationen, aber nicht von der "KI" sondern von ihren Betreibern, die teilweise den Eindruck gewonnen, die "KI" habe "emergentes Verhalten" gezeigt, also Dinge getan, die man nicht trainiert hatte.

Quelle: https://blog.fefe.de/?ts=9844ae2e

Bezieht sich auf den Artikel hier: https://www.heise.de/news/Studie-Gr...lichem-Denken-noch-weit-entfernt-9832168.html

Befolgt die KI etwa über einen Prompt Anweisungen, ohne selbst zu denken, passen die Ergebnisse zwar zur Aufgabe, ergeben aber auf einer logischen und vernünftigen Basis keinen Sinn. "Das spiegelt sich in dem bekannten Phänomen des 'Halluzinierens' wider, bei dem das LLM flüssigen, aber sachlich falschen Output produziert."

Zusammengefasst: Das was man oben reinkippt, kommt unten wieder raus und im schlimmsten Fall passt es nicht zur Realität. Das Interessante an der Studie ist allerdings, das der menschliche Geist nicht immer in der Lage ist die Realität von der KI zu unterscheiden. Und genau da sehe ich die Gefahr. Mit KI lassen sich Betrügereien in einem Maße perfektionieren, die nur ganz wenigen Menschen derzeit bewusst sein dürfte.
 
Zuletzt bearbeitet:
Zurück
Oben