Hello, Guest the thread was called6.3k times and contains 157 replays

last post from tilobyte at the

Künstliche Intelligenz mit dem C64

  • Zur Sache Ethik, kamen die Diskutierende auf keinen Konsens. Nur dass diese sich ständig ins Wort fielen und auf gestellte Fragen nicht geantwortet hatten.


    Das überrascht mich nicht wirklich. Das ist genau das was ich meine. :)


    Also, wenn mein bissiger Hund ein Kind beißt, bin jedenfalls ich dran und nicht der Züchter des Hundes. Autofirmen werden sich mit Sicherheit mit Hilfe einer Klausel im Kaufvertrag von Verantwortung lösen. So, wie ich von meinem Hund schon vorher weiß, dass er jemanden beißen kann, und dennoch mit ihm in den Park gehe, weiß ich dann von meinem Auto, dass es jemanden anfahren kann.


    Da ist nur der wesentliche Unterschied, dass du deinen Hund erziehen kannst und um einen Maulkorb verpassen kannst, wenn du erkennst dass er Probleme macht. Du kannst das also beeinflussen. Die KI eines Autos kannst du nicht beeinflussen. Schon gar nicht wenn die Autos in Zukunft mal voll autonom fahren. Da wird es dann eher so sein dass du nichtmal eingreifen DARFST.


    Es hat grundsätzlich immer der Fahrzeugführer die Verantwortung. Auch bei heute autonom fahrenden Fahrzeugen ist das so.

    Das ist derzeit noch so. Die Systeme sind ja auch nicht in der Lage voll autonom zu fahren und du kannst jederzeit eingreifen. Irgendwann wird das aber nicht mehr so sein. Dann sitzt du, wie die Zugführer schon heute, einfach drin und lässt dich rumkutschieren. Vielleicht hast du dann ja noch einen Notabschalter..

  • Im Prinzip sind wir mit KI und anderen Umwälzungen im Verkehrsbereich (z.B. E-Mobilität) da, wo Ingenieure ca. 1890 waren.


    Wenn man sich dann mal ansieht, wie schnell die Entwicklung von den ersten Autos (mit Starterkurbel und Karbitlampen) über den ersten Motorflug bis hin zur kommerziellen Luftfahrt ging.

  • Also, wenn mein bissiger Hund ein Kind beißt, bin jedenfalls ich dran und nicht der Züchter des Hundes. Autofirmen werden sich mit Sicherheit mit Hilfe einer Klausel im Kaufvertrag von Verantwortung lösen. So, wie ich von meinem Hund schon vorher weiß, dass er jemanden beißen kann, und dennoch mit ihm in den Park gehe, weiß ich dann von meinem Auto, dass es jemanden anfahren kann.


    Da ist nur der wesentliche Unterschied, dass du deinen Hund erziehen kannst und um einen Maulkorb verpassen kannst, wenn du erkennst dass er Probleme macht. Du kannst das also beeinflussen. Die KI eines Autos kannst du nicht beeinflussen. Schon gar nicht wenn die Autos in Zukunft mal voll autonom fahren. Da wird es dann eher so sein dass du nichtmal eingreifen DARFST.

    Genau so ist es. Als Autobesitzer eines selbstfahrenden Autos kann ich nicht mehr eingreifen. Ich habe keinerlei Möglichkeit, eine Entscheidung der KI zu ändern.


    Es ist eher vergleichbar mit einer Taxifahrt als Passagier. Nur ist dann eben der Taxifahrer haftbar, falls was passiert.


    Und das ist eben die Kernfrage: Wer haftet für Fehler, die die KI verursacht hat?


    Also entweder findet man da eine Lösung oder man muss die Autos auch weiterhin so bauen, dass im Zweifelsfall der Autobesitzer eingreifen kann und muss. Nur ist es dann kein selbstfahrendes Auto mehr, wenn ich als Besitzer doch immer wieder schauen und eingreifen muss. :)

  • Und das ist eben die Kernfrage: Wer haftet für Fehler, die die KI verursacht hat?


    Also entweder findet man da eine Lösung oder man muss die Autos auch weiterhin so bauen, dass im Zweifelsfall der Autobesitzer eingreifen kann und muss. Nur ist es dann kein selbstfahrendes Auto mehr, wenn ich als Besitzer doch immer wieder schauen und eingreifen muss. :)

    Ich denke mal da wird es noch jede Menge Diksussionen geben. Nicht weil die Notwendig wären, sondern weil sich jeder von der Verantwortung freisprechen will. ;)


    Im Grunde ist es aber ziemlich simpel. Haftbar ist der, der den Unfall verursacht hat und auch die Möglichkeit hatte etwas daran zu ändern. Der Passagier im Taxi hat keinen Einfluss. Selbst wenn er drängelt und dem Fahrer sagt er soll schneller machen, ist es trotzdem die Entscheidung des Fahrers darauf zu hören.


    Wenn du bei einer KI solche "Knöpfe" hast, bist du selbst Schuld, wenn nicht, dann ist es logischerweise der Hersteller. Dann ist halt nur die Frage ob die KI nach besten Wissenstand konfiguriert war. Falls du also Updates verpennt hast, könnte sich der Hersteller vielleicht rausrden, aber das sind dann alles Fragen die eher juristischer Natur sind und mit der Technik nichts zu tun haben.

  • Und das ist eben die Kernfrage: Wer haftet für Fehler, die die KI verursacht hat?

    Die KI haftet, und das Auto wird gefoltert, wie bei Spielbergs "A.I.". ^^

    Da habe ich Star Wars im Kopf. :D


  • Man könnte daraus auch ein Trolley-Problem machen:


    Der Trolley fährt auf eine Weiche zu.

    Auf dem einen Gleis sind 5 Menschen, auf dem anderen ist 1 Mensch.

    Die KI hat ethisch unkorrekt entschieden, nur die eine Person totzufahren.

    Du stehst an der Weiche und kannst Dich entscheiden, die eine Person zu retten und dafür 5 ethisch korrekt totzufahren.

  • Man kann das auch so machen, die KI schaut in einer Datenbank nach, weche Personen für den Staat wertvoller sind, und handelt dementsprechend.

    Wer weiß, was in 50 Jahren auf dem Planeten los ist.

  • Die Autos werden kommen.

    Natürlich werden sie das. Weil eine riesengroße Industrie dahintersteht (Autohersteller plus die geballte US-IT-Wirtschaft) und diese sich von ein paar besorgten Bürgern/Opfern und machtlosen Politikern nichts sagen lassen. Wirtschaft geht natürlich immer vor allem Anderen, notfalls wird mit Entlassungen gedroht. ;)


    Risiken werden eigentlich meistens dann besprochen, wenn das Kind schon in den Brunnen gefallen ist. Leider.


    ----


    Aber mal zu was technischem: In iOS-Geräten sind ja verhältnismäßig mächtige Machine-Learning-Chips (Neural-Engine) inkl. passendem API (Core ML) verbaut. Hat damit eigentlich schon mal jemand hier, der sich mit ML auskennt, herumexperimentiert?

  • Ich verweise mal am Rande darauf, dass (1) autonom fahrende Fahrzeuge bereits Unfälle verursacht haben (auch tödliche), das ist also keineswegs mehr ein hypothetisches Szenario (man kann höchstens debattieren ob man das "automatisch" oder "KI" nennen will), und dass (2) meines Wissens sämtliche aktuell auf den Strassen unterwegsene Selbstfahrsysteme explizit die Beaufsichtigung eines Fahrzeugführers einfordern, und schon allein dadurch die Verantwortung im Falle eines Falles klar definiert ist. Das heisst natürlich nicht dass die Leute sich dran halten, es gibt ja immer wieder Stories von Leuten die am autonomen Steuer schlafen oder sonstwas machen was sie nicht sollen...


    IMO wird es möglicherweise noch Jahrzehnte dauern, bis vollständig autonom fahrende Fahrzeuge in genau diese Definition irgendeine Form von Marktreife erreichen, wenn überhaupt jemals. Öffentlicher Strassenverkehr ist einfach ein fürchterlich chaotisches, dynamisches, komplexes System. Eher noch werden weiter verbesserte Assistenzsysteme kommen wie erweiterte Abstandhalter, Spurhalter, Tempomaten, Einparkhilfen, Tandem/Konvoi-Fahrsysteme, die Teilbereiche des Fahrens weiter optional abdecken. Aber ein System bei dem man am Navi eingibt "fahre von A nach B und parke dann dort nahe Ziel C" oder so, sehe ich so schnell nicht kommen...

  • Intesantes Thema von KI mit dem C64 zum autonomen Fahren und die Frage was ist Intelligenz ist noch offen. ;)


    Beim autonomen Fahrzeug ist halt die Frage, wie ist die Grundprogrammierung?


    A: Der Fahrer/Besitzer hat absolut Priorität

    B: Alle anderen haben Priorität, Fahrer/Besitzer ist sekundär


    Autonomes Fahren ist für mich:

    Ich steige ein und sage wo ich hin will und der Rest ist nicht mein Problem.

    KITT lässt grüssen :D

    OK bei KITT konnte der "Computer" umgangen werden.


    Gruss C=Mac.

  • Also ich denke dass das was heute unter Machine Learning als KI verstanden wird, dürfte auf dem C64 kaum möglich sein. Diese Algorithmen verwenden Modelle mit irrren Mengen an Trainingsdaten, die ein C64 kaum bewältigen könnte. Selbst ein fertiges Modell produziert schon recht grosse Datenmengen, so dass es auf dem C64 auch unrealistisch wäre.

    Wenn man allerdings kleinere Problem als KI definiert (z.B. Schach) dann kann man das durchaus machen. Gibt ja auch Schachprogramme. :)

  • Bei den Möglichkeiten die wir heute schon haben stellt sich mir die Frage warum es den Beruf des Zug(Lock)führers noch gibt oder zumindest in dem Umfang.

    Zu der Frage wann ist KI intelligent oder doch nur ein Fachidiot führe ich mal das Beispiel eines Kindes an. Natürlich hat jeder Mensch angeborene Instinkte und Grundbedürfnisse die wiederum Handlungen erzeugen deren Grund ein Kleinkind nicht benennen kann es weiß nur Hunger, Durst, Wärme und Zuneigung. Aber was ein Kuchen ist und das man Zucker braucht um einen zu backen das wird einem Kind erst beigebracht (programmiert).

    Eine alles umfassende Inteligenz ist ja auch gar nicht gefordert. Ein Rob für eine HerzOP muß nicht wissen das ein Kuchen aus Milch und Mehl gemacht wird. Und ein Auto solte zwar die StVo kennen aber die Strafprozessordnung ist denke ich völlig irrelevant.

    Grundsätzlich bin ich der Überzeugung, dass es bei der Entwicklung neuer Systeme unerlässlich ist alles, auch das Unwarscheinlichste zu diskutieren. Man sollte sich allerdings nicht in diesen Diskusionen verlieren. Nur wenn ich alles und auch das Unmöglichste anspreche kann fast alles (auser das noch nicht gedachte) berücksichtigt werden.

  • Provokativ (was keine Ethikkommission wohl goutieren würde): Diese "Rechenbeispiele" kommen mir vor wie das Rechnen mit Unendlichkeiten (was sich oftmals auch gerne einem logischen Zugang entzieht). Ein Menschenleben ist unbezahlbar (unendlich kostbar im Sinne von unwiederbringlich). 5x unbezahlbar ergibt unbezahlbar und 1x unbezahlbar ist auch unbezahlbar. Aus der Entscheidungssicht laufen beide Fälle in Konsequenz auf eine auf einen unwiederbringlichen "Schaden" hinaus. Das eine scheint mehr als das andere zu wiegen, aber gleichzeitig wiegt es nicht weniger. Eine KI kann so gesehen unter diesen Umständen nicht wirklich entscheiden (eher zaudernd auf eine Seite der Entscheidungsmöglichkeiten mehr oder weniger zufällig fallen). Da würde man sonst von einer KI verlangen, was so auch kein Mensch leisten kann. Ein Ursachenermittlung wird bei einer KI nicht leichter sein als in einem Bio-Neuro-Netz (AKA Gehirn).

  • Vielleicht haben wir in der Zukunft auch ganz andere Probleme als selbstfahrende Autos.

    In vielen Ländern fährt die (arme) Bevölkerung sogar noch mit dem Ochsenkarren herum, da träumt niemand von so einem Auto. Und wer sagt denn, das es bei uns so weitergeht mit der technischen Entwicklung und dem Wohlstand?