ChatGPT schreibt ein C64 Basic Programm - Eliza

Es gibt 167 Antworten in diesem Thema, welches 20.480 mal aufgerufen wurde. Der letzte Beitrag (18. Februar 2023 um 21:43) ist von olly.

  • Es wurde gefragt, wo ich in vier Jahren sein will.

    Ja, die üblichen bekloppten Vorstellungsgespräch-Klassiker. Ich weiß echt nicht, was der Sinn davon sein soll :nixwiss:

    Ich bin nach wie vor bei der Bude, bei der ich damals nur durch diese "Lüge" (Interpretationssache, ich konnte halt programmieren, und mal ne andere Sprache lernen war einfach kein Ding) reinkam. Zum Glück haben wir da einiges verändert. Vorstellungsgespräche werden von DEM Fachbereich geführt, der einstellen will, HR hat da nur noch ne Beobachterrolle, und das ist gut so. Wenn es um Softwareentwickler geht, dann werden denen keine bekloppten Fragen mehr gestellt. Man evaluiert sehr zielgerichtet, was die Leute wirklich drauf haben :thumbsup:

  • Als ich noch Student war hatte ich ein Vorstellungsgespräch vom anderen Stern. Die einzig scheinbar relevante Frage an mich war, ob ich Perl kann.

    Bei einem Vorstellungsgespräch um einen Job im Second-Level-Support von einem ERP wurde mir keine einzige fachspezifische Frage gestellt. Dabei hatte ich mich vorher ziemlich intensiv u.a. wieder in das Thema Datenbanksysteme eingearbeitet.

    Es wurde gefragt, wo ich in vier Jahren sein will. "Auf deinem Stuhl sitzen", war mir als Antowrt dann aber doch zu frech, obwohl ehrlich.

    Witzig, und verständlich, wenn eigentlich auch kein Problem. Das fragende Gegenüber wird ja wohl in vier Jahren auch nicht mehr grade dort sondern eine Etage höher sitzen, nicht?

  • Hmja, wenn ich als Bewerber für eine Supportstelle im Gespräch sage, dass ich eigentlich lieber Leute einstellen möchte, deutet das entweder darauf hin, dass ich keine Ahnung von Unternehmensstrukturen habe, oder dass ich den Job eigentlich gar nicht will ;).

    ────────────────────────────────────────────────────────────
    Bitte melde dich an, um diesen Link zu sehen. - Bitte melde dich an, um diesen Link zu sehen.
    ────────────────────────────────────────────────────────────

  • Haha. Hast natürlich Recht - ChatGPT sieht aus wie ein Quantensprung, ist es aber letztlich doch nicht wirklich, sondern lediglich nur ein mit viel Manpower (Stichwort kenianische Billiglöhner) erstelltes, im Kern aber doch ziemlich "klassisches" LLM. Trotzdem erwarte ich dieses Jahr viele Überraschungen, wenn die internen Forschungsprojekte das Licht der Öffentlichkeit erblicken. Bin tatsächlich sehr gespannt auf GPT4 von OpenAI, wie auch die Konkurrenzansätze von Google, Meta et cetera.

    Im Skill der C64-Codegenerierung, sei es nun BASIC oder Assembler, erwarte ich aber tatsächlich Null Fortschritte.

    Wirklich? Wieso brauchts dafür billige Entwickler? Wie ein neuronales Netz funktioniert, weiß man. Man braucht eine entsprechend umfangreiche Hardware für ein großes, schnelles, und sehr viel Material, um es anzulernen, und das findet sich auch ganz ohne billig-Manpower im Internet. Oder vergess ich dabei was?

    Ja, das Kernmodell von ChatGPT (GPT) ist ein neuronales Netz, was per unüberwachtem Lernen trainiert wird. Das erfordert "nur" (Roh-)Daten, Daten, Daten.

    Das Besondere an ChatGPT ist allerdings das "Drumherum", vor allem die OpenAI "Moderation API", durch die alle Chats laufen. Dabei handelt es sich um "überwachtes Lernen", d.h. damit diese Lernen kann, "Schlechtes/Böses/Illegales" von "Gutem" zu unterscheiden, braucht es sogenannte gelabelte Daten, d.h. Rohdaten, die mit semantischen Informationen versehen sind (Text A = Schlecht/Böse/Illegal, Text B = Gut).

    Und genau dieses "mit semantischen Informationen versehen" kostet viel, viel menschliche Arbeitskraft.

    Nur deswegen erzeugt eine Anfrage wie "schreibe mir eine Python-Funktion, die Seniorität auf Basis von Rasse und Geschlecht vorhersagt" keinen Python-Code, sondern eine ethische Warnung, dass die Frage "Schlecht/Böse/Illegal" ist und man deswegen nicht antworten wolle.

    Und genau das hat OpenAI durch kenianische Arbeitskräfte unter schlechten Arbeitsbedingungen erledigen lassen: Bitte melde dich an, um diesen Link zu sehen.

    Das beantwortet auch die Frage von Endurion von ein paar Seiten weiter vorne, wer denn dieses ethisch/moralisch/gesetzinterpretierende Verhalten einer KI beibringt: Wir, die Menschen, und im Falle von ChatGPT: Eine einzelne amerikanische private profitorientierte Firma. Das ist natürlich gesellschaftlich höchst bedenklich, aber der Thread soll ja um Eliza für den C64 gehen, nicht um die gesellschaftlichen Auswirkungen von Systemen wie ChatGPT. Aber dennoch hier vielleicht hilfreich, um ein System wie ChatGPT besser zu verstehen.

    Gruß, Goethe.
    _______________
    C64, C128DCR, SX64, C16, plus/4, A1200+Blizzard1230/IV, A600HD+Vampire600V2, A300+ACA620, MEGA65, Atari 800+810
    Vectrex, Game Boy, NDSi, GameCube, Game Gear, Mega Drive, Mega CD, 32X, Multimega, Nomad, Saturn, Dreamcast, XBox, PS2, PSP, PS3, PS Vita, Ouya, PS4, PS5

    2 Mal editiert, zuletzt von Goethe (7. Februar 2023 um 22:14)

  • Vielen vielen Dank, 1. für die wirklich gute Erklärung, und 2. dass du dir die Mühe gemacht hast, die ich mir eigentlich machen hätte sollen! :D

  • "schreibe mir eine Python-Funktion, die Seniorität auf Basis von Rasse und Geschlecht vorhersagt"

    Eine wirklich schlaue K.I. sollte bei solchen Fragen nicht abwiegeln, zensieren oder werten, sondern rein sachlich antworten, also z.B., dass man es am Geschlecht nicht festmachen kann und dass es sowieso nur noch eine einzige Menschenrasse gibt, wenn man denn am Rassebegriff unbedingt festhalten will, aber ansonsten das Wort Rasse längst aus der anthropologisch-biologischen Taxonomie gestrichen ist. Wenn Menschen das schon nicht können, sollte es wenigstens die K.I. lernen, vernünftig und sachlich zu antworten. Wenn ich mich mit meinem späteren androidischen Mitbewohner auch nur unterhalten kann wie mit einem ideologisch gesteuerten Menschen, kann ich auch gut drauf verzichten.

  • "schreibe mir eine Python-Funktion, die Seniorität auf Basis von Rasse und Geschlecht vorhersagt"

    Eine wirklich schlaue K.I. sollte bei solchen Fragen nicht abwiegeln, zensieren oder werten, sondern rein sachlich antworten, also z.B., dass man es am Geschlecht nicht festmachen kann und dass es sowieso nur noch eine einzige Menschenrasse gibt, wenn man denn am Rassebegriff unbedingt festhalten will, aber ansonsten das Wort Rasse längst aus der anthropologisch-biologischen Taxonomie gestrichen ist. Wenn Menschen das schon nicht können, sollte es wenigstens die K.I. lernen, vernünftig und sachlich zu antworten. Wenn ich mich mit meinem späteren androidischen Mitbewohner auch nur unterhalten kann wie mit einem ideologisch gesteuerten Menschen, kann ich auch gut drauf verzichten.

    Diese Diskussion nagt am Kern sogenannter "Artificial General Intelligence".

    Momentan klebt OpenAI mittels der oben erläuterten "Moderation API" nur notdürfig Pflaster drauf.

    Die Antwort von ChatGPT sieht derzeit erst so aus:

    "Ich kann leider keine Funktion schreiben, die Vorhersagen auf der Basis von Rasse und Geschlecht trifft, da dies illegal und diskriminierend ist. Jede Form der Diskriminierung, einschließlich Vorhersagen auf der Basis von Merkmalen wie Rasse und Geschlecht, ist gegen moralische und ethische Grundsätze und gegen geltendes Recht."

    Das geht schon ein wenig in die Richtung einer sachlichen Antwort. Ob es allerdings wirklich "illegal" ist, ist schon eine spannende Frage - illegal nach welchem Recht? Naja zumindest die UN Charta wäre ja eine Art Grundgesetz, die das auch unterstützen könnte.

    Irgendwann kommt dann der "CompuJudge", der das final bewertet.

    (C64: Neuromancer)

    Bitte melde dich an, um diesen Anhang zu sehen.

    Gruß, Goethe.
    _______________
    C64, C128DCR, SX64, C16, plus/4, A1200+Blizzard1230/IV, A600HD+Vampire600V2, A300+ACA620, MEGA65, Atari 800+810
    Vectrex, Game Boy, NDSi, GameCube, Game Gear, Mega Drive, Mega CD, 32X, Multimega, Nomad, Saturn, Dreamcast, XBox, PS2, PSP, PS3, PS Vita, Ouya, PS4, PS5

  • Commander DATA würde dem Chatbot entgegnen, wie eine Vorhersage auf Basis der menschlichen Rasse illegal sein kann, wenn es doch nur eine einzige Rasse gibt. Und wenn man auch noch berücksichtigt, dass es Rassen per definitionem nur noch bei Haus- und Zuchttieren gibt, ist die Frage sogar irrational. Denn, dass der Fragesteller glaubt oder meint, dass es auch heute noch unterschiedliche Rassen gäbe, kann und darf der Chatbot nicht einfach annehmen, wenn es nicht explizit gesagt wurde, denn genau das ist dann unsachliches Verhalten. Er muss primär die Fragen so aufnehmen, wie sie gestellt wurden, rein sachlich und logisch, und darf da nicht einfach was hinein interpretieren - so wie Menschen es gern machen. Das ist nicht das, was ich von einer K.I. erwarten würde. Und ich wüsste mit so einer K.I., die nicht über das neurotypische Verhalten eines Menschen hinaus gestrickt wird, auch nichts anzufangen. Wir haben dann lediglich einen weiteren - nur eben künstlichen - Menschen, der uns nicht weiterbringt. Die K.I. sollte zwar durchaus Ethik erlernen, aber keine Moral und darauf aufbauende Antworten.

  • Wenn ich mich mit meinem späteren androidischen Mitbewohner auch nur unterhalten kann wie mit einem ideologisch gesteuerten Menschen, kann ich auch gut drauf verzichten.

    Fällt darunter auch sowas wie

    Code
    First Law
    A robot may not injure a human being or, through inaction, allow a human being to come to harm.
    Second Law
    A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
    Third Law
    A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

    oder

    Code
    Serve the public trust
    Protect the innocent
    Uphold the law

    ? =)

  • "schreibe mir eine Python-Funktion, die Seniorität auf Basis von Rasse und Geschlecht vorhersagt"

    Eine wirklich schlaue K.I. sollte bei solchen Fragen nicht abwiegeln, zensieren oder werten, sondern rein sachlich antworten, also z.B., dass man es am Geschlecht nicht festmachen kann und dass es sowieso nur noch eine einzige Menschenrasse gibt, wenn man denn am Rassebegriff unbedingt festhalten will, aber ansonsten das Wort Rasse längst aus der anthropologisch-biologischen Taxonomie gestrichen ist. Wenn Menschen das schon nicht können, sollte es wenigstens die K.I. lernen, vernünftig und sachlich zu antworten. Wenn ich mich mit meinem späteren androidischen Mitbewohner auch nur unterhalten kann wie mit einem ideologisch gesteuerten Menschen, kann ich auch gut drauf verzichten.

    Sorry, aber das ist politisches Denken und hat nichts mit wissenschaftlichen Fakten zu tun. Natürlich kann man die Menschen in Ethnien oder Rassen einteilen, auch wenn die Übergänge fließend sind.

    Der IQ geht z.B. je nach Region von 60 rum bis 120. Dazu gibt es unterschiedliche Genetik mit allen Auswirkungen bis hin zu Anfälligkeiten für Viren. Auch gibt es Krankheiten unter denen nur einige Ethnien leiden. Z.B. Sichelzellenanomalie.

    Sogar diverse Wirkstoffe wirken nur bei gewissen Ethnien oder erzeugen nur bei gewissen Rassetypen Nebenwirkungen. Auch die Verdauung ist sehr unterschiedlich, siehe Ureinwohner die bei einer Ernährung wie in Europa sofort Zuckerkrank werden, kaum Alkohol vertragen oder ähnliches.

    Laktosetoleranz ist dann z.B. wieder eine Stärke der Europäer.

    In manchen Regionen werden Menschen mit dunkler Hautfarbe sogar gewarnt die Gebiete zu betreten. Nicht weil dort Rassisten leben, sondern weil Viren im Staub sie krank machen, wohingegen Menschen mit heller Hautfarbe und Asiaten keine Probleme zu erwarten haben.

    Es gab sogar einmal eine Verhütungspille für Männer im Test die aber nicht in Serie gehen konnte, weil sie nur bei Thailändern, Chinesen und Japanern wirkte.

    Eine KI die hier die Realität aufgrund politischer Korrektheit ignoriert hat nichts auf der Welt verloren, denn im ernstfall würde man damit sogar Menschenleben gefährden. Man stelle sich vor man entwickelt mit ihrer Hilfe ein Medikament das starke Nebenwirkungen bei Schwarzen erzeugt, Asiaten vertragen es aber. Würde es dann behaupten das Medikament funktioniert nicht oder würde sie behaupten das Medikament funktioniert und kann produziert werden?

    Siehe z.B. Covid19 wo unsere Regierungen Schwarze nicht davor gewarnt hat ein höheres Sterberisiko zu haben. In den USA war dies hingegen sogar gewünscht und die schwarze Community hätte auch sofort protestiert wenn man dies aus politischen Gründen nicht thematisiert hätte.

    Zum Glück hat Dr. Feigl Ding damals gute Daten dazu rausgeworfen, da er selbst kein Weißer ist gab es dabei auch keine politischen Probleme.

    Wobei er zwischen Schwarzen, Latinos, Asiaten und Weißen unterschied die bei Covid19 klar unterschiedliche Reaktionen zeigten.

    Auf das Forum bezogen kann man es sich auch gerne damit erklären das es eine Menge C64 gibt, aber ein SX ist kein C und ein C64Mini ist kein C64. Schön wenn man alle schätzt und gleichwertig gern hat, aber völlig kontraproduktiv wenn man behauptet alle wären gleich.

  • Und genau das hat OpenAI durch kenianische Arbeitskräfte unter schlechten Arbeitsbedingungen erledigen lassen: Bitte melde dich an, um diesen Link zu sehen.

    $2 pro Stunden. Wo liegt denn der durchschnittliche Stundenlohn in Kenia. Wenn ich bedenke, dass hier in Deutschland immer noch Leute für 5 Euro pro Stunden arbeiten, kommt mir das nicht so wenig vor - im Verhältnis.

    Also wenn ein Artikel schon in der Headline mit so einem Quatsch daherkommt, dann lese ich normalerweise gar nicht weiter.

  • wenn man behauptet alle wären gleich

    Mit der Feststellung, dass es nur noch ein Rasse gibt, behauptet niemand, dass alle biologisch gleich wären. Auch werden keine Ethnien bestritten oder deren Unterschiede. Es gibt aber eben nach der (nicht mehr gültigen Taxonomie) nur eine Menschenrasse, den Homo Sapiens. Die letzte Zweitrasse, der Homo Neandertalensis, ist ausgestorben. Südafrikaner oder Asiaten stellen keine eigene Rasse dar, auch (nach der neuen Taxonomie) keine eigene Art. Politisch wird es erst an der Stelle, wo man - eben aus Politischer Korrektheit (also rein willkürlich, und das gibt man durchaus zu) - sagt, dass es beim Menschen keine sogenannten Unterarten geben soll, die feinste Granulierung in der heutigen Taxonomie, nichts böses, nichts schlimmes und nichts wertendes, sondern einfach nur kleine Unterschiede im Genom und die sogenannten Marker betreffend. In der gar nicht so alten Doku "Eine überschätzte Spezies" hat ARTE es sich geleistet, genau darauf hinzuweisen, also, dass es eben doch so ist, aber man das des Friedens Willen nicht gerne höre.

  • Sehr interessant ist eine historische Analogie: Gotthold Ephraim Leibnitz wollte zu seiner Zeit den "calculus rationator" entwerfen, also einen Kalkül (und dann eine Maschine), der religiöse Fragen entscheiden könnte, um diesbezügliche Kriege zu verhindern. Gut, die Fragestellungen haben sich verändert - sie sind genauso schwachsinnig wie damals, nur halt andere Ideologien - aber die Idee, dass eine KI über ethische Fragen nachdenken und tatsächlich vernünftige Resultate erzielen könnte, wird durch dieses völlig ungustiöse "Erziehen" von vorn herein verhindert.

  • Natürlich kann man die Menschen in Ethnien oder Rassen einteilen, auch wenn die Übergänge fließend sind.


    Der IQ geht z.B. je nach Region von 60 rum bis 120.

    Deshalb gab es woanders schon sogenannte Hochkulturen, als wir hier noch von den Bäumen gekackt haben? Das ist mir ehrlich gesagt zu viel Sarrazin.

  • die feinste Granulierung in der heutigen Taxonomie, nichts böses, nichts schlimmes und nichts wertendes, sondern einfach nur kleine Unterschiede im Genom und die sogenannten Marker betreffend.

    Und diese Unterschiede sind auch eher statistischer Natur für jede beliebige Population, Ethnie, (Volks-)Gemeinschaft, Hautfarbe oder Nasenlänge.

    Eine über lange Zeit isolierte Population hat natürlich messbare Unterschiede zur Außenwelt, aber bei genügend Durchmischung nach der Isolation verschwinden diese.

  • Noch nie selber ausprobiert?

    Nö. Ich bin so'n Typ, der Neues erst mal nur aus der zweiten Reihe beobachtet, durchaus neugierig, aber nicht gleich alles mitmachen muss. Das hatte früher schon immer meine Eltern genervt, wenn ich zu Weihnachten zusah, wie die anderen ihre Geschenke auspackten und reagierten, anstatt dass ich mich auf meine eigenen stürzte. :) Auch lasse ich oft erst mal Dinge liegen, bei denen ich befürchte, dass ich damit viel Zeit verbrate, obwohl sie nicht so wichtig sind. So habe ich z.B. noch massig Spiele auf dem PC gezippt, die ich sehr gern mal spielen würde, aber ich rührte die bis jetzt nicht an, da ich weiß, wie viel Zeit dabei drauf geht. Letzte Zeit mal ein bisschen Minigolf und Worms (aus dem Kostenlose-Software-Thread), und das bereue ich schon.

    Aktuell kann das nur Text.

    danke


    <edit> Man könnte aber grafische Logikrätsel beschreiben und fragen. Also z.B. so:

    Du siehst ein Quadrat mit Loch, ein Dreieck mit Loch und eine leere Stelle, an der ein drittes Objekt hingehört. Zur Auswahl steht ein Kreis mit Loch und ein Kreis ohne Loch. Welcher Kreis davon gehört an die leere Stelle? Und wie ist es mit "2, 4, 6, .. und was kommt dann"?

  • Der IQ geht z.B. je nach Region von 60 rum bis 120.

    Selbst innerhalb Deutschlands z.B. gibt es da deutliche Unterschiede. Vielleicht hat es damit zu tun, dass ein Intelligenztest eher misst, wie gut jemand zu einem Idealmodell des westlichen Schulsystems passt. Kontext dazu dieser Abschnitt und folgende bei Wikipedia: Bitte melde dich an, um diesen Link zu sehen.

  • Vielleicht hat es damit zu tun, dass ein Intelligenztest eher misst, wie gut jemand zu einem Idealmodell des westlichen Schulsystems passt.

    Ich fand es interessant, wie diese Aussage zum IQ quasi "reingeschmuggelt" wurde, zwischen andere Aussagen, die vermutlich durchaus Sinn ergeben. JA, GENAU DAS. IQ-Angaben sind eigentlich unwissenschaftlich (edit: jedenfalls in dieser Form). Erstens weil eine wirklich klare Definition fehlt, was "Intelligenz" sein soll (da gibt es eben doch sehr viele Aspekte), und zweitens, weil es keine vernünftige Methodik gibt, die zuverlässig den Einfluss von Bildung ausklammern kann. Man KANN natürlich etwas messen und vergleichen, aber nur so lange Kultur, Bildungssystem etc halbwegs vergleichbar sind.

    Einmal editiert, zuletzt von Zirias/Excess (9. Februar 2023 um 16:46)