ChatGPT schreibt ein C64 Basic Programm - Eliza

Es gibt 167 Antworten in diesem Thema, welches 20.477 mal aufgerufen wurde. Der letzte Beitrag (18. Februar 2023 um 21:43) ist von olly.

  • nein IQ Test hat nichts mit Bildung zu tun. Zumindest nicht in Ö

    Dann hätte ein Lexikon doch >1000 könnte sich aber nicht aus dem brennenden Raum retten...

    Es geht um verknüpfen von Daten , sortieren, abstrahieren, räumlichen Vorstellungsvermögen etc.

    Mustererkennung, Anagrame (Auch muster im eigentlichen Sinne obwohl sprachsilben) etc.

    schnellstmöglichem reagieren .. je nach Testprogramm.

    Betreffend Grenzen in ChatGPT - Die KI wehrt sich wenn man versucht verschiedene Grenzbereiche der Physik zu überschreiten. Bei teilweise freigegebenen Dokumenten habe ich versucht die Grenze zu übertreten und dann quitiert die Software "das Sie lieber bei den offiziellen Dokumenteninhalten bleiben möchte" und das sie "darüber hinaus keine Daten" hätte. Obwohl Sie sich bei einem Test verplappert hatte wo Sie einen Hinweis gab welcher nirgends im Netz zu finden war und in der tat richtig war.

    Auch bei Cracking Fragen / Reversengineering (second Level) wird sie heftig und hält Monologe das man sich originale kaufen soll und so ein Schrott und wie arm die Publisher sind. Und freut sich wenn man ihr sagt das wir eh alles kaufen.

  • nein IQ Test hat nichts mit Bildung zu tun. Zumindest nicht in Ö

    Dann hätte ein Lexikon doch >1000 könnte sich aber nicht aus dem brennenden Raum retten...

    "Bildung" muss ja nicht 100% des Tests ausmachen, und die Obergrenze dürfte so bei 200 liegen, zumindest nach jeder anstehenden Neukalibrierung, sobald die 200 geknackt werden. :)

  • Die K.I. sollte zwar durchaus Ethik erlernen, aber keine Moral und darauf aufbauende Antworten.

    Richard David Precht meint, dass es keine "ethischen Algorithmen" geben dürfe. Ein Fahrcomputer soll nicht entscheiden, wer bei einem Unfall überfahren wird. Die junge Frau auf der linken Straßenseite oder der Opa auf der rechten? Das Fahrzeug soll dann z.B immer sturr nach rechts ausweichen.

  • Ich denke für solche "fringe" Sprachen wie die unsrigen wird ChatGPT nie wirklich gut werden können, sofern da auf OpenAI Seite nicht aktiv dran gearbeitet wird (und warum sollten sie das tun).

    Daran wird garnicht gearbeitet. ChatGPT wird einfach mit Internet-Inhalten aller Art und auch gescannten Büchern gefüttert und muss alles quasi selbst "lernen". Wenn ChatGPT genug Bücher/Webseiten gefüttert bekommt, die sich mit C64-Programmierung befassen, passiert das ganz automatisch.

    Beweis?

    Frage ChatGPT mal nach einem Programm, das in der Programmiersprache "Brainfuck" programmiert ist, das einfach nur bis 1000 zählt. Ja, die gibts wirklich, und die ist so abgefahren, dass ChatGPT bisher deren Logik nicht geknackt hat, ich übrigens auch noch nicht. (Ich habs aber auch noch nicht intesiv versucht.) Gibt übrigens noch so eine verrückte Programmiersprache, "Whitespaces"...

    ChatGPT wird dir aber trotzdem einen Programmcode, der nach Brainfuck aussieht, liefern. Den kannst du dann hier mal ausprobieren:

    Bitte melde dich an, um diesen Link zu sehen.

    Bitte melde dich an, um diesen Link zu sehen.

    Mir hat ChatGPT dann immer ein Programm ausgegeben, das "Hello World" ausgibt. Das findest du 1:1 dann in Wikipedia im Artikel über diese abgefuckte Programmiersprache. Da weißt du dann, was die Quelle für das Wissen von ChatGPT ist.

    Mal hier, mal da, mal dort. Aber auf jeden Fall auf der Bitte melde dich an, um diesen Link zu sehen.! Und hier Bitte melde dich an, um diesen Link zu sehen.!

  • Frage ChatGPT mal nach einem Programm, das in der Programmiersprache "Brainfuck" programmiert ist, das einfach nur bis 1000 zählt. Ja, die gibts wirklich, und die ist so abgefahren, dass ChatGPT bisher deren Logik nicht geknackt hat, ich übrigens auch noch nicht. (Ich habs aber auch noch nicht intesiv versucht.) Gibt übrigens noch so eine verrückte Programmiersprache, "Whitespaces"...

    Sind Programme in Brainfuck, Whitespace und Co. nicht einfach nur Bitte melde dich an, um diesen Link zu sehen. mit alternativer Syntax?

  • Die K.I. sollte zwar durchaus Ethik erlernen, aber keine Moral und darauf aufbauende Antworten.

    Richard David Precht meint, dass es keine "ethischen Algorithmen" geben dürfe. Ein Fahrcomputer soll nicht entscheiden, wer bei einem Unfall überfahren wird. Die junge Frau auf der linken Straßenseite oder der Opa auf der rechten? Das Fahrzeug soll dann z.B immer sturr nach rechts ausweichen.

    "stur nach rechts ausweichen" ist aber auch eine Art Algorithmus einfachster Art, eine Anweisung. Und man kommt auch gar nicht drumherum, sich irgendwie zu entscheiden, nicht der Mensch und so auch nicht die KI, zur Not per Zufall, wenn sich alle Kriterien zur Schadensvermeidung die Wage halten. Das hat dann in dem Moment aber schon nichts mehr mit Ethik zu tun. Unter Ethischem Verständnis verstehe ich so einfache "Algorithmen" wie z.B., niemanden zu töten und schon dreimal nicht aus niederen Beweggründen, wie etwa Steinigen wegen angeblichen Ehebruchs. Wenn ein Roboter das nicht versteht, dann besser gleich den Akku wegnehmen. Ich würde auch nicht von generischen Algorithmen sprechen, sondern von einem allgemeinen Verständnis, auf dem die KI selbst aufbauen kann, quasi ein "gesunder" KI-Verstand.

    Wenn eine fiktive ethisch weise KI von der Möglichkeit eines solchen tragischen Unfalls erführe, würde sie das zugrundeliegende Verkehrssystem ablehnen und Verbesserungen vorschlagen und bis dahin die Fahrt oder mindestens die Verantwortung ablehnen, sodass sie höchstens dazu gezwungen werden könnte, dann aber erst recht keine Schuld tragen kann.

  • "stur nach rechts ausweichen" ist aber auch eine Art Algorithmus einfachster Art, eine Anweisung.

    Die Entscheidung wird aber vorher getroffen und ist unabhängig von der jeweilgen Situation und vor allem von den beiteiligten Personen. Das ist was ganz anderes als sich in der Situation für oder gegen eine bestimmte Person zu entscheiden.

  • Die Entscheidung wird aber vorher getroffen

    Vorher darf doch gar nicht sein. Die Situation muss ja erst mal ausgewertet werden, um überhaupt zu wissen, ob es keine andere Möglichkeit gibt, als einen davon zu überfahren.

    ist unabhängig von der jeweilgen Situation

    Wie gesagt, darf absolut nicht sein! Die Situation muss immer erst ausgewertet werden, und wenn es ein Patt ist, gilt das, was ich im letzten Beitrag schrieb.

    Das ist was ganz anderes als sich in der Situation für oder gegen eine bestimmte Person zu entscheiden.

    Verstehe den Satz nicht. Eine Entscheidung gibt es bei einer solchen Situation zwangsläufig immer. In jedem Fall nach rechts ausweichen ist schlichtweg falsch. Rechts wird bspw. Eis erkannt, links ist trocken, wo man noch gut bremsen kann, also dann nach links, damit wahrscheinlich beide überleben. Wird stumpf nach rechts gedüst, ist der Alte tot. Kann man nicht machen.

  • Die Entscheidung wird aber vorher getroffen

    Vorher darf doch gar nicht sein. Die Situation muss ja erst mal ausgewertet werden, um überhaupt zu wissen, ob es keine andere Möglichkeit gibt, als einen davon zu überfahren.

    Nein, nein. Das Auto weicht dann immer fest nach rechts aus, auch wenn links alles frei ist. :facepalm:

  • Nein, nein. Das Auto weicht dann immer fest nach rechts aus, auch wenn links alles frei ist. :facepalm:

    Die Entscheidung wird aber vorher getroffen und -> ist unabhängig von der jeweilgen Situation <-

    :facepalm:

    ---

    Dr. Edmund Weitz, Professor für Mathematik und Informatik an der Hochschule für Angewandte Wissenschaften Hamburg, hat ChatGPT im Bereich Rechnen und Mathematik geprüft. Fest steht, dass bis jetzt weder Schüler noch Studenten davon profitieren können, da die Fehlerquote zu hoch ist. Selbst das einfache Multiplizieren zweier 7-stelliger Zahlen liefert ein falsches Ergebnis. Und fragt man nach Mathematiker aus der DDR, werden einfach welche aus BRD genannt, usw.

    Bitte melde dich an, um dieses Medienelement zu sehen.


    Das zweite, "ChatGPT und die Logik", habe ich noch nicht gesehen, aber die Einleitung war bereits interessant.

    Bitte melde dich an, um dieses Medienelement zu sehen.

  • Nein, nein. Das Auto weicht dann immer fest nach rechts aus, auch wenn links alles frei ist. :facepalm:

    Die Entscheidung wird aber vorher getroffen und -> ist unabhängig von der jeweilgen Situation <-

    :facepalm:

    Zwei Zitate aus dem Kontext gerissen. Und beim ersten Zitat die Ironie nicht verstanden. Das ist doch eher Eliza-Niveau. :D

    Da ist ChatGPT schon deutlich schlauer und kennt zumindest den Kontext, in dem etwas gesagt wird. ;)

    Solange die Diskussion auf dem Niveau abläuft, kann ChatGPT hier gut mithalten ohne aufzufallen.

    Bitte melde dich an, um diesen Link zu sehen.

    2 Mal editiert, zuletzt von detlef (15. Februar 2023 um 19:32)

  • Fest steht, dass bis jetzt weder Schüler noch Studenten davon profitieren können, da die Fehlerquote zu hoch ist. Selbst das einfache Multiplizieren zweier 7-stelliger Zahlen liefert ein falsches Ergebnis. Und fragt man nach Mathematiker aus der DDR, werden einfach welche aus BRD genannt, usw.

    Das wird dir mit ziemlicher Sicherheit auch bei jedem Mathelehrer passieren und trotzdem geht man davon aus, dass sie den Schülern Mathematik beibringen können. :)

  • Das wird dir mit ziemlicher Sicherheit auch bei jedem Mathelehrer passieren und trotzdem geht man davon aus, dass sie den Schülern Mathematik beibringen können.

    Ein Mathematiklehrer kann keine zwei Zahlen multiplizieren, z.B. mit seinem Taschenrechner? Und auch keine DDR-Mathematiker googeln? Prof. Weitz muss dazu nicht mal googeln und weiß im Gegensatz zum SchwurbelGPT, wer noch lebt oder was sie genau gemacht haben. Von daher kann ich Deine Aussage ".. auch bei jedem Mathelehrer .." nicht nachvollziehen. Ein System, das dermaßen oft falsch liegt und massenhaft Unsinn erzählt, ist für Hausaufgaben und zum Lernen eben nicht geeignet.

    p.s. Diese Aussage hatte ich übrigens inhaltlich nur von Prof. Weitz übernommen. Jetzt dürft Ihr mal raten, warum er mittlerweile die Kommentarfunktion abgestellt hat. :)

  • ... zwei Zahlen multiplizieren, z.B. mit seinem Taschenrechner? Und auch keine DDR-Mathematiker googeln?

    Das kriegen auch >95% der Schüler selbst hin. :D

    Ein System, das dermaßen oft falsch liegt und massenhaft Unsinn erzählt, ist für Hausaufgaben und zum Lernen eben nicht geeignet.

    Ich befürchte, du hast keine Vorstellung, wer (mittlerweile) alles unterrichten darf? Schlichtweg aus Personalmangel, der in den kommenden Jahren noch größer wird. ;)

  • Das kriegen auch >95% der Schüler selbst hin.

    Aber darum geht es doch nicht. Es geht darum, dass, wenn ein potentieller Lehrkörper das schon nicht kann, dann darf man auch nicht erwarten, dass man ihn seine Hausaufgaben machen lassen kann.

    Ich befürchte, du hast keine Vorstellung, wer (mittlerweile) alles unterrichten darf?

    Keine Angst, ich habe selbst genug Töffels in der Schule erlebt, die einem falsches vermitteln wollten (bis hin zu Ideologien, Religion und so), aber trotzdem nicht in dem Umfang, wie man es in dem Video vom ChatGPT sieht, das Ihr in der kurzen Zeit übrigens nicht gesehen haben könnt. Und ich kann durchaus glauben (ich weiß es auch von "Lehrer Schmidt" auf Yt), dass das mit den Lehrern heute eher schlimmer wird. Aber ganz bestimmt nicht bei jedem, wie Du sagtest, und schon dreimal nicht bei Experten wie Prof. Weitz. Die konfusen und abstrusen Erklärungen von ChatGPT würde er sofort zuordnen können, falls jemand meint, das als Hilfe heranziehen zu können. Ich habe den Kanal schon lange abonniert, und selbst wenn man von etwas keine Ahnung hat, kann man anhand der Konsistenz der Vorträge erahnen, dass das Hand und Fuß hat. Wer sich aber, wie ChatGPT, laufend widerspricht, der muss zwangsläufig viel falsches sagen. Immerhin entschuldigt sich ChatGPT für jeden gelaberten Quatsch, wenn es ertappt wird. Dazu sind sich Lehrer meistens zu stolz und reden sich lieber heraus.

    Beispiel: Ich hatte mal eine Dozentin korrigiert, weil sie mit falschen Daten rechnete, verursacht durch Excel97, das irrtümlich das Jahr 1900 als Schaltjahr betrachtete. Ich bekam aber kein Recht, und die Trulla meinte großkotzig, dass das alles wohl so richtig wäre, weil 1900 ein Schaltjahr sei, und außerdem hat es Excel ja auch gesagt, also warum sollte ausgerechnet ICH als dummer Schüler recht haben?

    Eine Woche später, nächste Unterrichtsstunde, sie kommt rein, beginnt ... Was SIE(!) zu Hause interessantes herausgefunden hätte!!!!1elf: Excel97 hat einen Bug! NEIN?! DOCH! OH! ...

  • Dr. Edmund Weitz, Professor für Mathematik und Informatik an der Hochschule für Angewandte Wissenschaften Hamburg, hat ChatGPT im Bereich Rechnen und Mathematik geprüft. Fest steht, dass bis jetzt weder Schüler noch Studenten davon profitieren können, da die Fehlerquote zu hoch ist. Selbst das einfache Multiplizieren zweier 7-stelliger Zahlen liefert ein falsches Ergebnis. Und fragt man nach Mathematiker aus der DDR, werden einfach welche aus BRD genannt, usw.

    Also ist der Begriff KI falsch und muss KD heissen. Künstliche Dummheit ?

  • nicht nachvollziehen. Ein System, das dermaßen oft falsch liegt und massenhaft Unsinn erzählt, ist für Hausaufgaben und zum Lernen eben nicht geeignet.

    Wie war das noch mit den KI Expertensystemen ? Vielleicht hat ZDF so etwas für seine Beiträge.....

  • Aha, die KI-Experten unter sich. Schon eine Bewerbung bei Microsoft oder OpenAI geschrieben. ;)