Es gibt 242 Antworten in diesem Thema, welches 37.230 mal aufgerufen wurde. Der letzte Beitrag (15. Oktober 2023 um 02:30) ist von daybyter.

  • Ob das Ding tatsächlich ein Bewusstsein hat, wird dann eine relativ uninteressante Frage.

    Da bin ich mir eben nicht sicher. Mir scheint der Turing-Test nicht ganz so bedeutsam zu sein. Aber ich bin im Thema auch nicht drin.

  • In der Welt von ChatGPT (und dem, was noch in diesem Kontext alles kommen mag), sind es dann die Prompt Engineers..

    Sidequest: Beobachtet mal, wie eure Mitmenschen, die von EDV keine Ahnung haben, Suchanfragen bei Google formulieren :wink:

    Die spannende Frage ist: In welchen Bereichen wird KI künftig eingesetzt werden? Als Fußgänger einem Kind mit Fahrrad auf dem Gehweg auszuweichen ist sicher ein Bereich, der nicht dazu gehören wird.

    Bisher war es jedoch oft so, dass am Anfang eine Entwicklung deren Potenzial noch gar nicht vorstellbar war. Die Dampfmaschine beispielsweise: Es hat recht lange gedauert, bis jemand auf die Idee kam, sie mit Rädern auszustatten und auf Schienen zu stellen und heute wird sie benutzt, um mittels Kernspaltung Elektrizität zu produzieren.

    Andererseits war die Entwicklung von revolutionärer Technik von bis in die Siebziger IMHO rasanter als Heute

    • Elektrizität
    • Luftfahrt
    • Schifffahrt
    • Motoren
    • Film
    • Radio
    • Fernsehen
    • Raketen
    • Transistor
    • Mikrochip
    • Computer

    die dann wiederum eigene Dinge ermöglicht haben

    • Küchengeräte aller Art
    • Waschmaschine
    • Strahltriebwerke
    • Tauchen bis zum Marianengraben
    • Mondlandung
    • Satelliten
    • und dergl. mehr

    Was denkt ihr, könnten Einsatzgebiete von KI sein und warum?

    Bei einem Kompromiss verlieren beide Seiten. Machen wir es so, wie ich es will, verliert nur eine Seite :thumbsup:

  • Ob eine KI den Turing Test besteht oder nicht ist eigentlich egal zur Frage des Bewusstseins.

    Wie könnte man sagen : "Doof darf man sein, man muss sich nur zu Helfen wissen."

    Und wenn die KI sich zu Helfen weiss, hat sie schon viel vorteile gegenüber einigen Menschen.

    Auch wenn die KI eigentlich Doof ist und kein Bewusstsein Ähnliches verhalten hat, sagt das nichts darüber aus, ob sie Agieren, handeln oder aussagen Treffen kann wie ein Mensch.

  • Wie könnte man sagen : "Doof darf man sein, man muss sich nur zu Helfen wissen."

    Dieser Satz ist allerdings ein Oxymoron, denn wer doof im Sinne von "nicht intelligent" ist, weiß sich in der Regel in neuen Situationen nicht zu helfen.

    Bei einem Kompromiss verlieren beide Seiten. Machen wir es so, wie ich es will, verliert nur eine Seite :thumbsup:

  • und zum Thema künstliche Haut für Roboter gibt es natürlich auch schon etwas

    Bitte melde dich an, um diesen Link zu sehen.

  • Und für mich auch die Masterfrage: Ab wann ist Bewusstsein wirklich ein Bewusstsein?

    Muss ich empfindungsfähig sein? Muss ich Angst vor dem Tod/dem Abschalten haben?

    Oder reicht es, wenn die Maschine weiss, dass sie 'nur' eine Maschine ist?

    Was ist denken? Die Kombination aus Wissen und Erfahrungen Lösungen zu finden.

    Wenn eine KI nun anhand Ihrer Programmierung selbiges leistet, 'denkt' sie dann schon oder folgt sie trotzdem nur Programmcode? Wie denken wir? Folgen wir nicht auch nur unserer biologischen Programmierung in Kombination aus Trieben/Emotionen, biologischen Sensoren und chemischen Reizen?

    Wie unterscheidet sich das durch uns laufende Informationssystem von den Nullen und Einsen der Maschinen?

    Unendlich spannendes Thema!

    Referral Code für Einkäufe bei commodore.net - Kauft den neuen Commodore 64 Ultimate
    Ihr erhaltet 10 Dollar Rabatt
    Bitte melde dich an, um diesen Link zu sehen.

  • Meines Erachtens sind notwendige Merkmale eines Bewusstseins, dass ein Actor sich bewusst ist van seiner eigenen Person, seinen eigenen Körper, ein Gefühl für Zeit hat und seine Umgebung, in der er sich befindet, wahrnehmen und verstehen kann.

  • Heise hat es ja schon erwähnt, die Betohnung liegt auf CHAT. Und wenn die KI etwas nicht weiss, gibt sie lieber eine falsche Antwort statt "ich weiss es nicht"

  • Meines Erachtens sind notwendige Merkmale eines Bewusstseins, dass ein Actor sich bewusst ist van seiner eigenen Person, [...]

    Dabei fällt mir ein, bei Lebewesen ist es teils überraschend, welche den Bitte melde dich an, um diesen Link zu sehen. bestehen.


    Heise hat es ja schon erwähnt, die Betohnung liegt auf CHAT. Und wenn die KI etwas nicht weiss, gibt sie lieber eine falsche Antwort statt "ich weiss es nicht"

    Das ist durchaus menschlich (zumindest manche Menschen betreffend). Aber meines Erachtens nicht wünschenswert.

  • Heise hat es ja schon erwähnt, die Betohnung liegt auf CHAT. Und wenn die KI etwas nicht weiss, gibt sie lieber eine falsche Antwort statt "ich weiss es nicht"

    Das kommt mir bekannt vor - aus vielen Foren. Von daher bildet der ChatGPT die Wirklichkeit schon sehr gut nach :D.

    Vermutlich sogar mit deutlich mehr Expertenwissen als die meisten Teilnehmer.

    Aber der ChatGPT bleibt immer freundlich und wird nicht persönlich oder verletzend .

    Also wenn ihr mich fragt... :thumbsup:

  • Noch einmal zurück auf das Thema: Wozu ist ChatGPT eigentlich gut?

    Ich denke, es ist unerheblich, ob GPT3.5 in der Lage ist aufgrund der vorhandenen Trainingsdaten und Modelle perfekt funktionierenden Code zu schreiben. Aus meiner Sicht ist es a) die Vielfalt der Anwendungsmöglichkeiten und b) der Dialog auf "Augenhöhe", die das Potential unfassbar werden lassen.

    Die Sache ist ja die - um kurz doch noch einmal bei der Programmierung zu bleiben - den meisten Entwicklern fällt es leichter, bestehenden Code anzupassen, Fehler auszumerzen, neue Funktionen zu ergänzen, etc. als auf der grünen Wiese anzufangen... mit nix. Ähnlich ist es mit vielem anderen auch: Ein Artikel will geschrieben werden? Ich bin sauschnell darin, wenn Du mir was gibst, auf das ich aufbauen kann. Muss ich alles von Null an selbst entwerfen, tu ich mich nicht selten schwer - in jedem Fall aber dauert es deutlich länger. Das liegt daran, dass unterschiedliche Charaktere, sobald sie zusammenarbeiten - sich ergänzen und mehr dabei herauskommt, als die Summe der Einzelteile...

    Deshalb gibt es auch Pair-Programming.

    Nur habt ihr alle auch schon erlebt, wie es ist, mit jemandem zusammenzuarbeiten, der nicht halb so viel versteht, wie ihr. Dann wird aus der Zusammenarbeit ganz schnell ein "Coaching" - und das war nicht das Ziel. Was man zur effizienten Zusammenarbeit braucht, ist ein Sparringspartner auf Augenhöhe.

    Fachlich mag ChatGPT noch nicht ganz dort angekommen zu sein. Aber es verfügt in jedem Fall über eine größere Datenmenge, auf die es zurückgreifen kann, als wir (in unserem Kopf). Was der Bot also fachlich noch nicht drauf hat, macht er über Datenmenge und Geschwindigkeit wett. Und schon ergibt sich ein Szenario, in dem - vorausgesetzt, wir formulieren die Prompts gut und verstehen, wie das System "tickt" - wir schneller Ergebnisse in unserer Domäne produzieren können, als Leute, die ChatGPT _nicht_ nutzen. Eben weil wir mit dem Teil einen sauschnellen Dialogpartner haben, der uns dabei helfen kann, unsere Ideen zügiger auszuarbeiten und z.T. dabei als Inspirationsquelle dient.

    Und bei der Menge an vollkommen unterschiedlichen Szenarien, die ich in den letzten Wochen beobachten konnte, muss ich sagen, dass das schon verblüffend gut funktioniert...

    Im übrigen bedeutet ein gut konstruierter Hammer auch nicht, dass jeder Nagel perfekt in jedes Material geschlagen wird... Werkzeuge sind nur so gut, wie diejenigen, die sie bedienen. Im übrigen gibt es inzwischen derart viele KIs in so vielen unterschiedlichen Bereichen, dass es nur noch eine Frage der Zeit ist, bis sie mittels APIs untereinander direkt vernetzt werden. Im Moment könnt ihr Leute z.B. dabei beobachten, wie sie mittels ChatGPT einen Prompt erarbeiten als Input für bspw. Midjourney, um Bilder zu generieren. Und es gibt bereits Ansätze über Scripte und Automations-Anbieter solche KIs miteinander zu verknüpfen.

    Und ganz nebenbei:

    Ist euch schon mal aufgefallen, dass wir ganz nah dran sind, mit unseren Computern so zu interagieren, wie wir es schon in den 90'ern in Startrek gesehen haben? Im Grunde genommen war der Computer der Enterprise auch nur ein mittels Deep Learning trainiertes, neuronales Netzwerk, mit dessen Sprachmodell interagiert werden konnte... oh... guck an... das ist die Definition von ChatGPT. :wink:

  • Die Sache ist ja die - um kurz doch noch einmal bei der Programmierung zu bleiben - den meisten Entwicklern fällt es leichter, bestehenden Code anzupassen, Fehler auszumerzen, neue Funktionen zu ergänzen, etc. als auf der grünen Wiese anzufangen... mit nix.

    Das geht mir persönlich anders. Mir fällt es leichter meinen eigenen Code anzupassen und zu debuggen, als fremden Code erstmal zu verstehen, dann auf meinen Stil anzupassen und dann zu debuggen.

    Deshalb gibt es auch Pair-Programming.

    Nur habt ihr alle auch schon erlebt, wie es ist, mit jemandem zusammenzuarbeiten, der nicht halb so viel versteht, wie ihr. Dann wird aus der Zusammenarbeit ganz schnell ein "Coaching" - und das war nicht das Ziel. Was man zur effizienten Zusammenarbeit braucht, ist ein Sparringspartner auf Augenhöhe.

    Das finde ich spannend. Bei uns in der Firma geht Coaching und das auf Augenhöhe bringen von Kollegen über alles. Was ist das für ein Betrieb, in dem du arbeitest, wo Kollegen, die man coachen muss, als ineffizient empfunden werden? Denn das lese ich aus deinem Beitrag heraus und das klingt ganz gruselig. Vielleicht sollte man sich da mal nach einem modernen "Lern-Unternehmen" umschauen.

    Im übrigen gibt es inzwischen derart viele KIs in so vielen unterschiedlichen Bereichen, dass es nur noch eine Frage der Zeit ist, bis sie mittels APIs untereinander direkt vernetzt werden.

    Die werden sich untereinander unterhalten und sich nicht mehr für und interessieren.

    So wie die selbstfahrenden Autos, die uns irgendwann nicht mehr mitnehmen werden. :D

    Den aktuellen Einsatz von ChatGPT in der Softwareentwicklung sehe ich eher als Risiko und nicht als Chance. Wenn ich mir die Komplexität des Codes unserer Anwendung anschauen, den ich gerade berarbeite - da braucht es jemand, der das tatsächlich versteht und nicht jemanden, der mir aus Big Data irgendwas zusammenstückelt, das nur so aussieht, wie eine passende Lösung.

    Das kann natürlich 20 Jahren schon ganz anders aussehen.

    Bitte melde dich an, um diesen Link zu sehen.

    6 Mal editiert, zuletzt von detlef (11. Januar 2023 um 01:05)

  • Die Sache ist ja die - um kurz doch noch einmal bei der Programmierung zu bleiben - den meisten Entwicklern fällt es leichter, bestehenden Code anzupassen, Fehler auszumerzen, neue Funktionen zu ergänzen, etc. als auf der grünen Wiese anzufangen... mit nix.

    Das geht mir persönlich anders. Mir fällt es leichter meinen eigenen Code anzupassen und zu debuggen, als fremden Code erstmal zu verstehen, dann auf meinen Stil anzupassen und dann zu debuggen.

    Wenn der Code erst einmal da ist: Keine Frage. Mir ging es darum, den Anfang zu finden. Und gemeinsam finden sich oft bessere Ideen oder lassen sich Fehler schneller erkennen.

    Deshalb gibt es auch Pair-Programming.

    Nur habt ihr alle auch schon erlebt, wie es ist, mit jemandem zusammenzuarbeiten, der nicht halb so viel versteht, wie ihr. Dann wird aus der Zusammenarbeit ganz schnell ein "Coaching" - und das war nicht das Ziel. Was man zur effizienten Zusammenarbeit braucht, ist ein Sparringspartner auf Augenhöhe.

    Das finde ich spannend. Bei uns in der Firma geht Coaching und das auf Augenhöhe bringen von Kollegen über alles. Was ist das für ein Betrieb, in dem du arbeitest, wo Kollegen, die man coachen muss, als ineffizient empfunden werden? Denn das lese ich aus deinem Beitrag heraus und das klingt ganz gruselig. Vielleicht sollte man sich da mal nach einem modernen "Lern-Unternehmen" umschauen.

    Dann habe ich das nicht gut rübergebracht. Aber wenn "Coaching und das auf Augenhöre bringen von Kollegen über alles" bei euch geht, dann seid ihr ein Lehr-Unternehmen, dessen Zweck es zu jeder Zeit ist, Wissen zu vermitteln? Dann wäre ich komplett bei Dir. Mir ging es um den expliziten Fall bei einer konkreten Aufgabenstellung, die ein effizientes Herangehen erfordert, sinnvollerweise mit Leuten zusammenzuarbeiten, die bereits auf Augenhöhe sind.

    Das schließt die Wissensvermittlung mit dem Ziel einer solchen natürlich nicht aus. Und wenn jemand in seinem Unternehmen dann und wann mal vor Herausforderungen gestellt wird, bei denen bis zum nächsten Tag bspw. ein Problem behoben werden muss, dann wird derjenige sicher nicht mit jemandem zusammenarbeiten wollen, dem oder der er erst einmal stundenlang die Grundlagen erklären muss. :wink:

  • Dann habe ich das nicht gut rübergebracht. Aber wenn "Coaching und das auf Augenhöre bringen von Kollegen über alles" bei euch geht, dann seid ihr ein Lehr-Unternehmen, dessen Zweck es zu jeder Zeit ist, Wissen zu vermitteln? Dann wäre ich komplett bei Dir. Mir ging es um den expliziten Fall bei einer konkreten Aufgabenstellung, die ein effizientes Herangehen erfordert, sinnvollerweise mit Leuten zusammenzuarbeiten, die bereits auf Augenhöhe sind.

    Das schließt die Wissensvermittlung mit dem Ziel einer solchen natürlich nicht aus. Und wenn jemand in seinem Unternehmen dann und wann mal vor Herausforderungen gestellt wird, bei denen bis zum nächsten Tag bspw. ein Problem behoben werden muss, dann wird derjenige sicher nicht mit jemandem zusammenarbeiten wollen, dem oder der er erst einmal stundenlang die Grundlagen erklären muss. :wink:

    Bei uns ist das aktuell so, dass wir aktuell schnell wachsen und natürlich am Arbeitsmarkt nicht die passenden Entwickler mit 20 Jahren Berufserfahrung finden. Und selbst wenn, dann sind sie natürlich neu im Projekt. Man hat also ständig neue Mitarbeiter im Team, die an das Projekt herangeführt werden müssen.

    Aber das schweift jetzt auch vom Thema ab. ;)

    Ich denke aber, dass gerade erfahrenen Entwicklern sowas wie GPT überhaupt nicht weiterhilft. Wenn ich irgendetwas neues machen muss, dann schaue ich mir Beispiele an und programmiere es dann von grundauf neu. Man hat ja vom Projekt vorgebene Hilfs- und Fehlerklassen, vervorzugte Pattern usw. Man müsste den GPT dann auch auf die individuellen Style-Guides eines Unternehmens oder eines Projektes trainieren. GPT ist aktuell ein Sammelsurium von allem.

    Könnte sein, dass sich das noch dahin entwickeln, aber im Moment ist das noch sehr weit davon entfernt.

  • Bei uns ist das aktuell so, dass wir aktuell schnell wachsen und natürlich am Arbeitsmarkt nicht die passenden Entwickler mit 20 Jahren Berufserfahrung finden. Und selbst wenn, dann sind sie natürlich neu im Projekt. Man hat also ständig neue Mitarbeiter im Team, die an das Projekt herangeführt werden müssen.

    Aber das schweift jetzt auch vom Thema ab. ;)

    Ich denke aber, dass gerade erfahrenen Entwicklern sowas wie GPT überhaupt nicht weiterhilft. Wenn ich irgendetwas neues machen muss, dann schaue ich mir Beispiele an und programmiere es dann von grundauf neu. Man hat ja vom Projekt vorgebene Hilfs- und Fehlerklassen, vervorzugte Pattern usw. Man müsste den GPT dann auch auf die individuellen Style-Guides eines Unternehmens oder eines Projektes trainieren. GPT ist aktuell ein Sammelsurium von allem.

    Könnte sein, dass sich das noch dahin entwickeln, aber im Moment ist das noch sehr weit davon entfernt.

    Dem kann ich nicht zustimmen, ich würde mich mit 20 Jahren Berufserfahrung als erfahrener Software-Entwickler bezeichnen ;) und ich habe ChatGTP völlig aus dem Kontext gerissen einen Source-Code gegeben (auch noch in F#) und es kamen wertvolle Verbesserungen zum (allgemeinen) Code-Style zurück. Auch hilft es gerade wenn man sich mit Algorithmen/Frameworks beschäftigt, mit denen man sich nicht gut auskennt. Wer 1:1 den Source Code dann kopiert, gut dem kann man dann nicht helfen ;D.

    ChatGPT ist auch nicht als Pair-Programmer gedacht, dafür gibt es Copilot, welches noch auf GPT3 basiert. Copilot lernt den Style des Projekts und auch die Semantik/Terminologie....Copilot ist alleine das Geld schon Wert, weil es mit hilft eine konstante Terminologie im Team/Code sicherzustellen

  • ChatGPT ist auch nicht als Pair-Programmer gedacht, dafür gibt es Copilot, welches noch auf GPT3 basiert. Copilot lernt den Style des Projekts und auch die Semantik/Terminologie....Copilot ist alleine das Geld schon Wert, weil es mit hilft eine konstante Terminologie im Team/Code sicherzustellen

    Das klingt dann schon interessanter, wenn es für diesen Zweck optimiert wurde.

  • Bitte melde dich an, um diesen Link zu sehen.

    Die Artikel wurden noch "überprüft sowie redigiert", ich habe nicht weiter recherchiert, wie umfangreich die menschlichen Korrekturen waren. Vielleicht finden sich bei CNet ja noch Artikel zum Thema. Die Leser waren blind und wussten nicht, dass manche Texte von Maschinen erstellt worden sein könnten. Ich nehme stark an, dass die Texte als ganz normale Artikel gesehen wurden, und das sehe ich als bestandenen Turing-Test.

    Turing hat sich wohl vorgestellt, ein richtiges Gespräch mit dem Testobjekt zu führen und es auf die Probe zu stellen. Halt ungefähr das, was man grad mit ChatGPT macht, ein Gespräch anfangen und nach Schwachstellen suchen. Das ist aber nicht blind! Man weiß, dass man es mit einer Maschine zu tun hat, und jeder Fehler wird als Bestätigung gesehen, dass die KI noch mangelhaft ist.

    Ein besserer Test: Kommentare bei Facebook und in Kommentarspalten zu Online-Artikeln.

    Wer schreibt sowas: Mensch oder KI?
    "Das wäre ein Traum für die Kinder in Dänemark gab es so was ich was da echt sprachlos"

    "Das ist habeck schuld und unsere Wirtschaft Deutschland ist bald kaputt darüber lachen schon andere nationen"

    "Passt aber nicht mit dem Stromsparen zusammen wenn der Elektroschrott ab den Strom muss"

    "Ideologie bestimmt alles. Damit werden der logische Gedanken und Ihre Vertreter ins Abseits gedrängt"

  • Ist ChatGPT kaputt? :)

    Erst bekomme ich auf eine deutsche Frage eine englische Antwort, die mir erklärt, ich hätte eine falsche Engine ausgewählt, die nicht kompatibel sei... (?!) und nach ein paar Mal auf "Regenerate" Klicken bekomme ich eine (wieder englische) Antwort, die überhaupt nichts mit meiner Frage zu tun hat. :wink:

    Ich habe was zum Thema Bundestag, Überhang- und Ausgleichsmandate und das deutsche Wahlrecht gefragt... und als Antwort bekam ich dies:

    Zitat

    There are a few different ways you could approach this problem, but one possible method is:

    1. Start by finding the slope of the line that passes through the two given points. The slope is the change in y divided by the change in x, or (y2 - y1) / (x2 - x1).
    2. Use the slope and one of the given points to find the equation of the line in slope-intercept form, y = mx + b, where m is the slope and b is the y-intercept. To do this, substitute the coordinates of one of the points into the equation and solve for b.
    3. Use the equation of the line to find the y-coordinate of the point where it intersects the x-axis (the y-intercept). To do this, set y = 0 and solve for x.
    4. Use the equation of the line and the y-intercept to find the x-coordinate of the point where it intersects the y-axis (the x-intercept). To do this, set x = 0 and solve for y.

    For example, using the given points (2, 3) and (5, 7), the slope is (7 - 3) / (5 - 2) = 4 / 3. So the equation of the line is y = (4/3)x + b. Substituting the coordinates of one of the points into the equation, we get 3 = (4/3) * 2 + b, so b = -2/3. So the equation of the line is y = (4/3)x - 2/3.

    To find the y-intercept, we set y = 0 and solve for x: 0 = (4/3)x - 2/3, so x = 2/3. So the y-intercept is (2/3, 0).

    To find the x-intercept, we set x = 0 and solve for y: y = (4/3) * 0 - 2/3, so y = -2/3. So the x-intercept is (0, -2/3).

    Therefore, the intercepts are (2/3, 0) and (0, -2/3).

    Tja.