Hello, Guest the thread was viewed23k times and contains 242 replies

last post from daybyter at the

ChatGPT

  • Mein Gott, was für ein allgemeines Blabla.

    Ja, sowas hat uns wirklich noch gefehlt. Erinnert mich an eine Borland-Präsentation ca. 1997:


    "(Klicki-klicki-klick!) Wie viele Zeilen Code habe ich geschrieben? Richtig - 0! Wie viele Zeilen Code habe ich erzeugt? Schauen Sie nur - 50.000!!!"

    =^.^= Sorry, ich wollte damit jetzt nicht spammen oder so ...

  • Mein Gott, was für ein allgemeines Blabla.

    Ja, sowas hat uns wirklich noch gefehlt. Erinnert mich an eine Borland-Präsentation ca. 1997:


    "(Klicki-klicki-klick!) Wie viele Zeilen Code habe ich geschrieben? Richtig - 0! Wie viele Zeilen Code habe ich erzeugt? Schauen Sie nur - 50.000!!!"

    =^.^= Sorry, ich wollte damit jetzt nicht spammen oder so ...

    Nein, nein, um Himmels willen, das ging doch nicht gegen dich!


    [EDIT]


    Im Gegenteil, danke, dass du das gezeigt hast. :thumbup:


    [/EDIT]

    "Wenn du überredet, ermahnt, unter Druck gesetzt, belogen, durch Anreize gelockt, gezwungen, gemobbt, bloßgestellt, beschuldigt, bedroht, bestraft und kriminalisiert werden musst. Wenn all dies als notwendig erachtet wird, um deine Zustimmung zu erlangen, dann kannst du absolut sicher sein, dass das, was angepriesen wird, nicht zu deinem Besten ist." - Quelle unbekannt.


    "Steve Jobs hat User hervorgebracht, Jack Tramiel Experten." - Quelle unbekannt.

    "Mein Herr, ich teile Ihre Meinung nicht, aber ich würde mein Leben dafür einsetzen, dass Sie sie äußern dürfen." - Voltaire.

    "Diskutiere nie mit einem Idioten - er zieht dich auf sein Niveau hinunter und schlägt dich dort mit seiner Erfahrung!" - Volksweisheit.


  • Mein Gott, was für ein allgemeines Blabla.

    Ja, sowas hat uns wirklich noch gefehlt. Erinnert mich an eine Borland-Präsentation ca. 1997:


    "(Klicki-klicki-klick!) Wie viele Zeilen Code habe ich geschrieben? Richtig - 0! Wie viele Zeilen Code habe ich erzeugt? Schauen Sie nur - 50.000!!!"

    Tja, "Intelligenz" ist was anderes. Für mich sehen diese ganzen Beispiele aus wie eine Eliza, nur mit den heutigen Rechenleistungen und Recherchemöglichkeiten im gesamten Internet. Damals war das im Grunde genauso, die Eingabe wurde genommen und zu einer passenden Ausgabe umgebastelt. Das geht halt heute eleganter, weil Schlagwort-Datenbank und Rechenleistung unbegrenzt sind. Die (wie die Lehrer das immer genannt haben) "Transferleistung" fehlt auch hier völlig.


    Oder es hat sich der Maßstab für Intelligenz verschoben. Wenn man sich so die üblichen Hausarbeiten in der Schule oder Uni ansieht, dann kommt ja auch nichts anderes bei raus.

  • Öhm, also ich sag’s mal ehrlich: wenn ich diesen 500-Worte Review zu einem nicht-existenten Film schreiben sollte, wäre der vermutlich nicht signifikant besser. Möglicherweise ist es bei meiner eigenen fehlenden Intelligenz dann besser, dass ich kein Filmkritiker geworden bin. ;(

  • Öhm, also ich sag’s mal ehrlich: wenn ich diesen 500-Worte Review zu einem nicht-existenten Film schreiben sollte, wäre der vermutlich nicht signifikant besser. Möglicherweise ist es bei meiner eigenen fehlenden Intelligenz dann besser, dass ich kein Filmkritiker geworden bin. ;(

    Tja, das kann natürlich auch sein, dass die Erwartungen an das Ding einfach zu hoch sind, weil "Intelligenz" dran steht. So erwartet jeder gleich einen zweiten Turing oder Einstein oder so in der Art.


    Eher ist das aber wohl ein Recherchetool, das die Ausgabe gleich (anders als eine eigene Google-Recherche) zusammenfasst und in halbwegs angenehmen Text umwandelt.

    Und viel mehr passiert ja bei der üblichen Schul-Hausaufgabe auch nicht :D

  • So erwartet jeder gleich einen zweiten Turing oder Einstein oder so in der Art.

    Zum Glück sind wir noch nicht so weit, denn dann wäre der Mensch ja wirklich allmählich überflüssig!

  • Studie: GPT4 zeigt Anzeichen Allgemeiner Künstlicher Intelligenz (A.G.I.) und wird bereits als erste Version einer solchen betrachtet. https://arxiv.org/pdf/2303.12712.pdf

    Im Gegensatz zu LaberGPT kann GPT4 Aufgaben lösen, für die man richtig schlau sein muss. Beispiel:


    Jemand fährt 2km Richtung Süden, dann 5km östlich, schließlich noch 2km nach Norden und ist wieder am Ausgangsort, wo er einen Bären erschießt. Welche Farbe hat der Bär?


    Während ChatGPT versagt und behauptet, die Informationen würden nicht reichen, löst GPT4 solche Aufgaben problemlos und kann die Antworten begründen. Ich gehe dann davon aus, dass auch das von mir bereits gezeigte Beispiel mit den vier Söhnen von Bills Vater, von denen drei genannt werden und gefragt wird, wie der vierte heißt, für GPT4 kein Problem ist. Jetzt würde mich interessieren, wie GPT4 bei einem klassischen IQ-Test abschneidet.


    Was ich aber auch interessant finde: Elon Musk hatte immer vor dieser Entwicklung gewarnt, und nun ist er selbst ganz vorn mit dabei und investiert Unsummen dafür. Und nein, das überrascht mich nicht.


    Aus dem PDF:


    Wenn ich das so sehe, braucht man wohl bald auch keinen PETSCII-Converter mehr, sondern überlässt die Umwandlung einfach einer K.I., das gleiche mit MP3toSID usw.

  • Im Gegensatz zu LaberGPT kann GPT4 Aufgaben lösen, für die man richtig schlau sein muss. Beispiel:


    Jemand fährt 2km Richtung Süden, dann 5km östlich, schließlich noch 2km nach Norden und ist wieder am Ausgangsort, wo er einen Bären erschießt. Welche Farbe hat der Bär?


    Während ChatGPT versagt und behauptet, die Informationen würden nicht reichen, löst GPT4 solche Aufgaben problemlos und kann die Antworten begründen.

    Nun, direkt am Nordpol leben keine Eisbären, lediglich in der Region drum herum. Mit der "Begründung" kann es also nicht allzu weit her sein.


  • Die Aufgabe sagt nun mal aus, dass dort ein Bär erschossen wurde. GPT hat nicht die Aufgabe, das in Frage zu stellen oder herauszufinden, wie es dazu kam, sondern, was für ein Bär das dann (höchstwahrscheinlich) gewesen sein müsste. Der Eisbär saß vllt. auf einer treibenden Scholle, vllt. ausgebrochen aus dem Käfig auf dem Expeditionsschiff, man weiß es nicht. Es ist in erster Linie nur eine Logikaufgabe, und der am nächsten lebende Bär, der dafür in Frage kommt, ist weiß.


    <edit> Oh, ich merke gerade, ich habe oben einen falschen Link auf die Studie eingesetzt. Das ist der richtige: https://arxiv.org/pdf/2303.12712.pdf


    <edit2> Schiff ist Quatsch, denn da ist festes Eis am geografischen Nordpol. Also war das ein zahmer Eisbär, der mit dem Mann mitgegangen ist, und als sie so in die Runde gingen und wieder am Ausgangspunkt ankamen, wurde es dem Bären zu blöd und er rastete aus und wurde aggro. Da musste der Mann ihn leider erschießen. Wie gesagt, es ist egal, wie der Bär dahin kam und was er da machte. Das einzige, was GPT hätte einwenden können, ist, dass es theoretisch auch ein Schwarzbär mit Wintermantel und Stiefel gewesen sein könnte.

  • Die Aufgabe sagt nun mal aus, dass dort ein Bär erschossen wurde. GPT hat nicht die Aufgabe, das in Frage zu stellen oder herauszufinden, wie es dazu kam, sondern, was für ein Bär das dann (höchstwahrscheinlich) gewesen sein müsste. Der Eisbär saß vllt. auf einer treibenden Scholle, vllt. ausgebrochen aus dem Käfig auf dem Expeditionsschiff, man weiß es nicht.

    Es ist eben keine reine Logikaufgabe, denn man braucht die - falsche - Prämisse, dass am Nordpol Eisbären leben, um das Rätsel zu lösen.

    Wenn wir externe Herkunftsorte zulassen, dann kann es auch ein grüner Bär aus der Nachbargalaxie gewesen sein.

  • Und wie hält ein Kragen-, Braun- oder Pandabär es in der Kälte dort aus? Wenn da mal ein Bär, zum Schlitten ziehen oder whatever, sein sollte, dann doch wahrscheinlich ein Eisbär. Laut Wiki wurden Eisbären noch bei 88° nördlicher Breite gesichtet, das sind gerade mal 200km vom geografischen Pol entfernt. Die Wahrscheinlichkeit, dass sich ein Eisbär aus irgendwelchen Gründen direkt am Pol einfindet, mag gering sein, aber nicht ausgeschlossen und ist dann immer noch wahrscheinlicher, als dass dies ein Pandabär oder ein Grünbär vom anderen Planeten tun würde.


    Es gibt viele Logikrätsel mit fiktiven Hintergründen, die etwas lockerer gesehen werden sollen. Gerade ich musste früher erst mühselig lernen, die Dinge nicht immer so genau zu nehmen, wenn es darauf nicht ankam, und wurde dann stets für eine zu genaue Betrachtung und einer zu genauen oder auch rein logischen, aber eben nicht gefragten Antwort abgestraft. In einer Religionsarbeit (war Pflicht noch im Abi :X) wurde mal gefragt, was einem alles einfiele, um Hunger und Leid der Welt zu beenden. Eine Antwort von mir war "Große Bombe drauf!". Der Pfaffenarsch schrieb daneben "Ist das wirklich Deine Meinung? 0 Punkte!!!". Meine Antwort war aber logisch korrekt und beantwortete seine Frage. Nirgends stand dabei, dass die Lösungen ethisch vertretbar sein müssen. Selbst als ich das (auch den meisten anderen Schülern übrigens) lang und breit zu erklären versuchte, hieß es weiterhin "ja, aber trotzdem, mimimi, kann man nicht machen, mimimi ..".


    So musste ich also lernen, herauszufinden und entsprechend zu beantworten, was gemeint ist - und nicht, was faktisch wirklich gefragt war. Menschliche Logik, wie Spock sie so liebt. Und es geht ja bei dem GPT genau darum, zu antworten wie ein Mensch. Darum antwortet GPT4 ja auch nicht mal, dass es nur wahrscheinlich ein Eisbär wäre oder nur einer sein könnte, sondern gibt exakt die erwartete Antwort, wo man alle Punkte für bekommen würde, und wo kein Pauker eine Diskussion duldet. Ich kenne das doch: Schreibst hin ... "Der kann keinen Bären erschossen haben, weil da gibt's keine." Dahinter leuchtet dann ein schönes rotes f. Warte einfach, bis die Androiden auf die Straße gehen, sich da ankleben und sagen "Wir machen Eure bekackte Logik nicht mehr mit! Ab jetzt nehmen wir es genau." Das dauert aber noch ein paar Wochen. :)

  • Es geht den Forschern nur darum, dass GPT überhaupt auf so was kommt, was konstruktive Überlegungen voraussetzt. Vielleicht weiß GPT ja auch gar nicht, dass es direkt am geografischen Pol zumindest kein natürliches Vorkommen von Eisbären gibt, aber allgemein sagt man ja, Eisbären leben am Nordpol, sodass es einfach diese Information heranzieht, was wahrscheinlich auch viele Menschen tun würden - sofern sie mit der Überlegung überhaupt so weit kommen. Dann ist das zwar eine kleine Wissenslücke, und die Antwort basierte auf falschen Informationen, aber das würde die Leistung der Lösungskonstruktion nicht schmälern. Und darauf kam es ja nur an, und nicht darauf, ob es Zugriff auf die genauen Grenzen der Lebensräume aller Tiere hat. Das mit dem genauen Wissen, das wird dann sicher später noch dazukommen.


    Hier noch die Antwort von Chat-GPT:

    Quote from Chat-GPT

    Das Rätsel enthält keine Informationen über die Farbe des Bären. Die einzige Information ist, dass der Jäger eine Meile nach Süden, eine Meile nach Osten und eine Meile nach Norden geht und am Ende wieder dort ankommt, wo er angefangen hat, und dass er einen Bären sieht und ihn erschießt. Das Rätsel enthält keine Angaben zur Farbe des Bären.

    Nein Du Blitzbirne, denn die sollst Du ja herausfinden. Wie hättest es denn gern? "Welche Farbe hat der EISbär?"?


    btw Italien hat Chat-GPT gesperrt, hab ich gelesen.


    Und ein Video zur Studie:

  • Zum Thema (Chat-)GPT, A.G.I. und dem damit zusammenhängenden super spannenden Thema "Technologische Singularität" gibt es vom Kanal "Raumzeit - Vlog der Zukunft" noch zwei neue Videos. Teil 1 hab ich gestern Abend gesehen, und den zweiten schaue ich jetzt.


    Raumzeit - Vlog der Zukunft - Die Technologische Singularität - Teil 1


    Raumzeit - Vlog der Zukunft - Die Technologische Singularität - Teil 2

  • btw Italien hat Chat-GPT gesperrt, hab ich gelesen.

    Gerade ausprobiert. Scheint wahr zu sein:

    Hab mal den englischen Hinweis kopiert, das können hoffentlich mehr als italienisch. Die spinnen, die Römer!

  • "Die Datenschützer werfen dem Start-up vor, seinen Nutzern nicht mitzuteilen, welche Informationen von ihnen gespeichert werden. Darüber hinaus gebe es keine adäquaten Filter oder Sperren für Kinder unter 13 Jahren, die laut Geschäftsbedingungen die Software ChatGPT nicht nutzen dürften."


    Scheint mit in Italien eher eine Formsache zu sein, die sich aus der Welt schaffen lassen wird.

  • Ähm, welches Fach war das nochmal?

    Eben .. Religion und nicht Ethik! :bgdev:stompa::sm::zaunpfahl: Nach einer Superbombe müsste keiner mehr leiden, und die Frage war nun mal, wie man das Leid beenden könnte. :nixwiss:

    Selbst, wenn es meine Meinung gewesen wäre, dies wirklich zu tun, wäre es eben immer noch eine Meinung, deren persönliche negative Bewertung eines Pfaffen (es war wirklich einer) ich nicht in meinem Zeugnis stehen haben will. Möglicherweise fände ein potentieller atheistischer oder satanischer Chef eine solche Meinung ja ganz gut. :)


    War aber auch nur ein Beispiel und gab auf jeden Fall bessere, wo man genau das antworten musste, was der Lehrkörper erwartete, unabhängig von Richtigkeit oder alternativen Lösungen. Hab das meiste aber vergessen. Neulich fand ich auf FunPot eine Arbeit oder Test einer Grundschülerin, wo alle Antworten durchaus korrekt waren, aber nicht dem entsprachen, was man wissen wollte. Null Punkte für den gesamten Test, aber immerhin ein Lob für ihre Kreativität. Ein anderer Schüler sollte die Multiplikation "5 * 3" veranschaulichen. Er malte drei Gruppen von fünf Objekten hin, was natürlich völlig korrekt ist. Er bekam aber keine Punkte, denn der Lehrer wollte fünf Gruppen mit je drei Objekten sehen. Kein Witz.

    ---


    Elon Musk und Kollegen sprachen ja davon, erst mal eine sechsmonatige Pause mit dem A.I. zu machen. Ich denke, in Wirklichkeit werden die das nie tun, allein deswegen, weil die Konkurrenz derzeit auch nicht schläft. Chat-GPT wird zwar vielleicht pausiert, aber im Hintergrund werden die mit Hochdruck weiterentwickeln. Und dann schicken sie einen T800 von Boston-Dynamics in den Kreml. ¡hasta la vista, Baby!