Hallo Besucher, der Thread wurde 12k mal aufgerufen und enthält 182 Antworten

letzter Beitrag von 8bitfetish am

Gedankenexperiment: Wieviel Computer braucht der Mensch?

  • ZeHa & tilobyte : Ich denke wir reden hier über den Otto Normalo & nicht über proffessioneller Computereinsatz.

    3d-Druck ist mMn eine Mode-Erscheinung wie Anno dazumal Scanner & Plotter. Der Heimanwender will doch nur Zocken, Filmchen gugge, Internet Surfen und Oma ein Geburtstagsbrief schreiben. Auch VR wird nur ein Modeerscheinung sein, wie damals die 3D-Filme im Kino. Das sind keine Massenmarkt Produkte (mMn).

    Naja darum gehts mir aber nicht mal. Mir gehts nur drum, was der PC von 2000 leistet. Ein CAD-Modell fuer einen 3D-Druck wuerde man auch damit hinbekommen, meiner Meinung nach.

    Das würde sogar ein C=64er schaffen.

  • Man koennte zum Beispiel auch sagen, mit dem C64 konnte man damals ja schon radiotaugliche Musik machen, man konnte ihn ja als MIDI-Sequencer nutzen und lauter externe Synthesizer ansteuern. Aber das gilt fuer mich eben nicht, denn am heutigen PC (oder auch am PC von 2000) kann ich alles "in the box" machen. Da brauche ich keine externen Geraete, nur die passende Software. Und das ist fuer mich hier auch ein wichtiger Unterschied bei der Bewertung unter dem Gesichtspunkt "konnte man schon 2000 am PC machen".


    Beim 3D-Druck ist es aber was anderes, weil der 3D-Druck immer extern stattfindet. Daher macht es hier keinen Unterschied, da kommt es nur drauf an, ob man an dem jeweiligen Rechner mit entsprechender Software den Drucker ansteuern und mit Daten fuettern koennte.

  • ich habe praezisiert

    Jaja, mir war klar, dass sowas kommt. Politiker-Sprech haben wir ja z.Z. jeden Tag im TV. ;)


    Zuerst kann man laut dir mit Mobil-Geräten keinerlei Inhalt "erschaffen", und dann sagt man halt, dass damit natürlich nur Inhalt auf professionellem Niveau (oder was das nicht näher definierte "ernsthaft" so ausdrücken soll) gemeint war. Das ist in etwa der Sprung von "damit kann man nicht kochen" zu "damit kann man nicht auf Restaurant-Niveau kochen". Oder "damit kann man nicht fahren" zu "damit gewinnt man beim Monaco Grand Prix keinen Blumentopf". Das ist nicht "präzisieren", sondern eine andere Aussage. ;)


    Im Gegensatz du deiner (ursprünglichen) Aussage werden heutzutage massenhaft kreative Inhalte mit Smartphone und Tablet erzeugt. Und das ist auch nicht alles "Cat-Content" oder Videos von Kindern, die vom Dreirad fallen. Das wurde dir nach meiner Kritik klar, deshalb hast du deine Aussage korrigiert – was nicht schlimm ist, sondern von Einsichtsfähigkeit und Flexibilität zeugt. :emojiSmiley-106:(also rede nicht dagegen an, denn es ist etwas Gutes)


    Vielen ist die Technik gar nicht so wichtig, oft zählt nur der Inhalt. Außerdem hängt das Ergebnis maßgeblich von der Person ab, die den Content gestaltet und nicht von der verwendeten Technik. Die ganzen Videoschnitt-Programme in den App Stores z.B. gibt es nicht nur zur Deko – sie werden sicherlich auch benutzt. Ist ja auch klar, wenn man bedenkt, was man da für einen Rechenboliden in der Tasche hat – nur für Facebook glotzen ist der doch viel zu schade.


    Also sei nicht so überheblich. Nur weil WIR "PC"s einsetzen, heißt das nicht, dass Andere ähnliches (und weitaus besseres) nicht auch mit einer Gurke, einem Abakus oder einem Tablet hinbekommen würden. ;) Für Unterwegs ist es doch klasse, wenn man das gerade aufgenommene schon schneiden und hochladen kann, bevor man zurück an seinem PC ist. Und gerade Videoschnitt ist ja nun auch (technisch gesehen) keine Raketenwissenschaft – es kommt da mehr auf Können und ein gutes Auge an.


    Ersetze "willst nicht mehr" durch "wollte noch nie", dann hast Du es

    Stimmt, wer will schon immer mit dem eigenen Mist von "gestern" konfrontiert werden. Aber wegen mir müssen wir das nicht weiter durchkauen, wenn du es auf sich beruhen lassen willst.


    Um 2000 herum habe ich meine komplette Musiksammlung auf den PC verlagert und seit dem fast nur noch MP3 gehört. Das gleiche bei Videos.

    Ja, habe ich wahrscheinlich in der Zeit auch getan. Was danach aber noch kam, ist z.B. Streaming! Heutzutage rippt und saugt niemand außer "uns Alten" noch Musik und Filme – alles wird gestreamt. Und ich finde schon, dass das was grundsätzlich anderes ist, egal, ob wir nun von YouTube oder Netflix oder Spotify sprechen. Technisch mussten dafür die CPUs erstmal leistungsfähig genug sein, weil die dafür erforderlichen Codecs (H264/H265...) und teilweise die Verschlüsselung richtig viel CPU-Power benötigen – und die Datenleitungen müssen das auch erst aushalten. Klar, Evolution, wie nahezu alles in der IT. Trotzdem ist Streaming von Audio und Video erst deutlich nach 2000 möglich und populär geworden und heutzutage die vorherrschende Form der Medien-Distribution. Und es ändert vieles – das ganze Terabyte-Horten von Daten entfällt für die Jüngeren, auch das Syncen, Kopieren und Verwalten von Content wird zunehmend überflüssig. Das gilt natürlich nicht für "uns", die das noch anders "gelernt" haben (was man hat, das hat man), sondern vor allem für "the next generation", die jetzt jung und relevant ist.


    Wie gesagt, man kann immer sagen "nix Neues", weil alles Neue nur eine verbesserte Kombination aus Altem ist – aber macht doch mal Netflix oder YouTube (natürlich in brauchbaren Auflösungen) mit einem komplett 20 Jahre alten PC – geht nicht.


    Machine Learning wuerde ich jetzt eher als etwas verbuchen, was man vielleicht auf Grossrechnern macht

    Oder auf Mobil-Geräten – dank spezieller ML-Rechenkerne auf den SoCs (der Bereich mit den größten Leistungssteigerungen von Jahr zu Jahr). Und damit auch z.B. auf neueren ARM-PCs verfügbar. Da passiert z.Z. sehr viel, z.B. Foto- und Video-Optimierung, Objekt- und Texterkennung in Bildern (inkl. Übersetzungen), lokale Spracherkennung usw.


    Mir fällt tatsächlich kein Anwendungsgebiet ein, das seit dem für mich dazugekommen ist. Diese Entwicklung war um 2000 herum abgeschlossen.

    Weil du einfach, wie wir alle, alt geworden bist. ;) Wenn ich schon höre "abgeschlossen". Frag mal einen 25-jährigen, ob, seit er sich erinnern kann, technologisch alles gleich geblieben ist. Vielleicht passieren ja die spannenden Dinge nicht dort, wo man selbst hinguckt. Klar, der Desktop-PC ist (allein betrachtet) schon ein wenig langweilig geworden und kann kaum noch neue Ufer betreten, weil er quasi festgenagelt und unhandlich ist. Das ist es ja auch, was ihn langfristig in eine gewisse Nische stellt (und das meine ich nicht nur Wohnraum-bezogen). Ich würde da trotzdem keinen Zeitpunkt festlegen wollen, weil das einfach ein fließender Prozess ist und von der Anwendung abhängt. Für Leute, die vorwiegend Texte schreiben, hat sich quasi seit 30 Jahren nichts mehr verändert, für Video-Cutter oder 3D-Renderer ist der Zeitraum wahrscheinlich deutlich kürzer.


    Die Techniken, die in den letzten Jahren beim PC hinzugekommen sind, kamen eigentlich tendenziell eher aus der Mobile-Ecke, wie Streaming (dort viel notwendiger), KI/ML (Sprach- und Bilderkennung) oder auch AR (-Brillen, die ihr Potential erst ausspielen, wenn sie autark und mobil werden) oder Touch-Bedienung in Windows. Aber egal, von woher die Inspiration kam – es kam (und kommt) auch noch beim Desktop-Rechner an – wenn auch verzögert und als Abfallprodukt. Der PC ist halt nicht mehr der Innovationstreiber – das ist jetzt die Mobil-Technik.


    Man sieht den schleichenden Niedergang des klassischen PCs ja auch bei den Verkäufen (bis zum außerplanmäßigen Corona-Notebook-Boom). Seit ca. 2011 gingen die PC-Verkäufe nur noch bergab. Das spiegelt halt die Innovations-Armut wider – nur gibt es (wie auch sonst eher selten) keinen festen Zeitpunkt, an dem "alles erfunden" war. It depends ...

  • ZeHa Seit 2000 ist nichts neues mehr dazugekommen? Was ist mit 3D- Druck?

    Hat nix damit zu tun, was für einen Computer ich auf dem Schreibtisch stehen habe.

  • Man kann sogar reich werden mit dem C64 und Bitcoins minen.

    Man muss halt nur gewaltig alt werden, schon klappt das.

    Ja, Blockchain-Umsetzungen und Krypto-Währungen würde ich auch deutlich in die Zeit nach 2000 verorten und das kann eine ganze Menge Veränderungen mit sich bringen – gute, wie schlechte. Eine kurze Zeit war es sogar wirtschaftlich, das mit "normalen" PCs zu machen – die aktuellen Mining-Farmen haben mit handelsüblichen PCs aber nicht mehr viel gemein (und verbrauchen leider so viel Strom, wie z.B. das Land Argentinien, Tendenz stark steigend).

  • Der 500er war im Vergleich zum 64er ein Quantensprung.

    Auch nach unten: Keine Programmiersprache im ROM inkl. Direktmodus (also im Einschaltzustand hirntot), kein PETSCII, keine blitzschnell startenden Software-Module, kein :choplifter:.

    Wenn ein 286er dann gleich 5000 oder so kosten soll, nö danke.

    Da ist der Unterschied nicht soo dolle.

    Der nächste Quantensprung wäre meines Erachtens fotorealistische Grafik in True Color. Das verzückte mich am meisten an meinem 486er, den ich nach dem C64 und Amiga 500 hatte.

    Das ist wie heute eine PS5 und ein starker PC für tausende Euro.

    Den Unterschied sehe ich nicht wirklich

    Da ich einen PC ohnehin brauche, wäre eine Konsole für mich eine überflüssige Ausgabe. Konsolen hatte ich nur vor dem C64, seitdem ergeben die für mich keinen Sinn mehr, weil auf richtigen Computern auch Spiele laufen.

  • 3d-Druck ist mMn eine Mode-Erscheinung wie Anno dazumal Scanner & Plotter. Der Heimanwender will doch nur Zocken, Filmchen gugge, Internet Surfen und Oma ein Geburtstagsbrief schreiben. Auch VR wird nur ein Modeerscheinung sein, wie damals die 3D-Filme im Kino. Das sind keine Massenmarkt Produkte (mMn).

    Sehe ich völlig anders. VR hat nicht so eingeschlagen wie der Hype voraussagte. Absolut. Aber das ist absolut mehr als eine Modeerscheinung. Ich verdien damit seit Jahren meine Brötchen ,) 3D Fernseher verschwanden übrigens auch, weil 4K lange zeit nicht mit 120Hz lief - da fehlte einfach die Bandbreite der Anbindung. Und Auflösung ist halt nochmal massentauglicher.


    Und 3D Druck? 3D Druck ist eine Revolution. Auch und gerade im Homesegment. Jeder der privat irgendwie immer mal was herstellen wollte profitiert davon. Im Cosplay-Geschehen absolut nicht mehr wegzudenken. Im Modellbau absolut nicht mehr wegzudenken. Im Tinkerer-Bereich absolut nicht mehr wegzudenken. Auch im Retrobereich nicht mehr wegzudenken. Im RPG-Bereich (Pen&Paper, LARP etc) nicht mehr wegzudenken. Selbst meine 70+ Ellies haben immer wieder neue Dinge, die sie gedruckt haben wollen. Und nicht nur Vasen oder Figürchen. Gartenstuhl kaputt, weil ein massiv belastetes Teil vom Hersteller extrem unterdimensioniert ist? Einfach selber drucken. Adapter, Halter, Klemmen, Brackets ...


    PS seit wann sind Scanner einer Modeerscheinung?

  • Ich war neulich im Krankenhaus und neben mir lag ein Mann über 80. Er hatte nix mit Computern am Hut, hat wohl nie einen besessen. Was er aber hatte, war ein Smartphone.

    Und frag mal die Leute in Indien, Brasilien (beides keine kleinen Länder) oder vielen afrikanischen Staaten. Da haben eine Menge Leute Smartphones (nicht unbedingt die teuersten) – aber nur die wenigsten PCs herumstehen. Die erledigen damit, was täglich zu erledigen ist – Geld-Transfers, Kommunikation, Verwaltungskram ...


    Mit einem Smartphone hat man ein Gerät bei sich, das einem PC vielfach überlegen ist – oft Wasser- und Staubgeschützt, immer draußen und unterwegs dabei, relativ unabhängig von einem stabilen Stromnetz usw.


    Vielleicht funzt das irgendwie gut, wenn die Software auf Wischiwaschi optimiert ausgelegt wird? Aber ob man damit wirklich alles

    so detailliert wie mit ner Maus machen/schneiden kann?

    Die Frage ist doch eher, wie "genau" man es denn haben will. Beim verlustfreien Schneiden kann man Schnitte ja auch jederzeit korrigieren. Und den meisten reicht es doch, Sekunden-genau, statt Frame-genau zu schneiden. Wenn man einen Urlaub, eine Familienfeier oder eine Klettertour zusammenschneiden will, muss man nicht unbedingt bis auf den einzelnen Frame heruntergehen. Man hat vielleicht 45 Minuten Footage und ein paar Fotos auf dem Handy und will das auf handliche 15 Minuten zusammenschneiden, mit Musik unterlegen und irgendwo hochladen. Dafür braucht's nicht unbedingt einen PC – auf den man das ganze Material auch erst noch übertragen muss.



    Hier sieht man ganz gut, wie man auf einem so kleinen Screen überhaupt Video schneidet. Wenn man nie etwas anderes (also einen professionellen Schnittplatz) gesehen hat, kommt einem das doch sehr natürlich vor, finde ich. (und ja, wahrscheinlich geht das auch ähnlich mit Android) ;)


    Auch VR wird nur ein Modeerscheinung sein, wie damals die 3D-Filme im Kino.

    Das sehe ich ähnlich – bei AR ist das aber meiner Meinung nach eine ganz andere Geschichte. Da ist nur einfach die Hardware noch nicht so weit, wie sie sein müsste, um es wirklich brauchbar zu machen.

  • Naja das liegt aber auch evtl. an der heutigen Software. Du kannst wahrscheinlich auch kein heutiges Word auf einem PC von 2000 laufen lassen. Aber waeren die Rechner heute noch auf dem Stand von 2000, haette ich keine Zweifel daran, dass eine 3D-Druck-Software darauf laufen wuerde.

  • Zitruskeks Ich würde Scanner auch nicht unbedingt als Modeerscheinung bezeichnen, sie werden lediglich daheim kaum noch benötigt. Die Urlaubsfotos sind alle gescannt. Aber auch Drucker haben sich etwas überlebt, früher wurde viel mehr ausgedruckt und nicht jeder hat mehr einen daheim stehen.

    Ich lasse zweimal im Jahr von meiner Frau in der Arbeit etwas scannen und drucken und habe keine mehr.

  • Ein ordentliches MMO (persistent, nicht instanziert, anspruchsvolle Simulation mit realitätsnaher Physik in stilvollem Science-Fiction-Setting, kein nervtötendes "Skill-System", kein Pay-to-win, keine das Roleplay abflachenden und eingrenzenden vorgegebenen Fraktionen) in VR, und ich wäre dabei.

  • Manchmal ist Innovation auch eine Frage der Zeit, bis Hardware, Software und Infrastruktur bereit für das System bzw. die Idee sind.

    3D-Filmeabend zu fünft ist doof, wenn man nur vier Brillen hat.

    Wenn aber mal 3D-Fernseher kommen sollten, die ohne Brillen auskommen, bin ich überzeugt, ist die richtige Zeit da und es wird was (wenn dann nicht nur der was von hat, der mittig sitzt, siehe etwa die curved Screens). Holodecks ick hör Euch trapsen!


    AR? Hat ohne Ende Potenzial, aber vielleicht nicht unbedingt im Consumermarkt. Als Assist-Systeme in der Medizintechnik oder im Bauwesen könnte ich mir hier viele Einsatzwecke vorstellen. Oder stellt Euch richtig intelligente Head-Up Displays in Autos vor.

    Und dennoch ist im Grunde alles davon nur Evolution.


    16 bit Grafik ist wie 8 bit Grafik, nur bunter. Usw. 3D-Animation ist ein Vektor gefüllt mit bunten Pixeln. Und dann immer aufwändiger. Pac-Man ist "auch nur" die Evolution von Pong, usw. usw.


    Das Elektroauto war auch schonmal da, die wenigsten werden sich erinnern :D


    ... und auch manches andere kehrt zurück, wie die Vinyl.


    Es ist ein steter Fluss an Evolution, und wieviel man davon braucht? Nun, vielleicht nicht immer das allerneuste. Brauchen im Sinne von überlebensnotwendig, würde man sagen, ist nichts davon... Bis man dahinter kommt, dass einem die Computertomographie womöglich doch das Leben gerettet hat, weil man eine Diagnose stellen konnte, die ohne das Gerät nicht möglich gewesen wäre.


    Sicherlich überleben wir ohne auf dem Cevi zocken zu können. So hat jedes Ding seine Vor- und Nachteile.

    Blutdruck, Puls messen... Früher gings zum Arzt oder in die Apotheke, heute macht das ein Ding für ein paar Euro 24 Stunden am Tag.

    Muss ich das haben? Nein. Hat eine Apple-Watch mit Warnfunktion vielleicht doch schon den ein oder anderen Menschen gerettet? Wahrscheinlich schon. Also wo zieht man die Grenze des "Notwendigen"?

  • Was mich an Streamingabos und Downloads stört, ich kann sie nicht wieder verkaufen. Deshalb hole ich mir auch heutzutage gern noch CDs, DVDs, Blu-rays und werde sie teilweise für das gleiche Geld wieder los.

    Versuch mal auf ebay ne DVD zu verkaufen. :D

    Schau dir an zu welchen Preisen die Angebote unverkauft auslaufen.

    Das "teilweise" beschränkt sich auf einige wenige seltene Titel.

  • Die Frage ist doch eher, wie "genau" man es denn haben will. Beim verlustfreien Schneiden kann man Schnitte ja auch jederzeit korrigieren. Und den meisten reicht es doch, Sekunden-genau, statt Frame-genau zu schneiden.

    Immer wenn man auf Mukke, nen Beat schneiden will, ist ne Sekunde u.U. deutlich am Ziel (dem Takt) vorbei *g*

    Also bei mir wäre das bei jedem Video zu ungenau.


    Man koennte zum Beispiel auch sagen, mit dem C64 konnte man damals ja schon radiotaugliche Musik machen, man konnte ihn ja als MIDI-Sequencer nutzen und lauter externe Synthesizer ansteuern.

    Genau - wie hier z.B. emulaThor sehr schön zeigt 8)


    Heute so MIDI sequenziert... (Entdeckungsreise Pro-16)


    Wobei bei mir daaamals™ der Schritt vom C64 zum Amiga punkto Mukke z.T. eher n Rückschritt war.

    Das auf dem Papier äh Desktop sehr tolle Amiga Drumprogramm, war auf unseren buchstäblichen Garagenband Aufnahmen nicht mehr

    rauszuhören, weil der dumpfe Amiga Klang eben kaum Hochtöne etc hat.

    Der C64 mit Digidrums hingegen kam durch unsere Wall of Gitarrensound problemlos durch.



    Der nächste Quantensprung wäre meines Erachtens fotorealistische Grafik in True Color. Das verzückte mich am meisten an meinem 486er, den ich nach dem C64 und Amiga 500 hatte.

    Doch nur ein Quantensprung? ;)


    Also um Lichtjahre den Softwaremodes voraus waren die 3D-Beschleuniger, die bei den DOSen daaamals™ langsam aufkamen.

    Und ja auch VGA und Super VGA waren super.



    Tinkerer-Bereich

    ?

  • Aber auch Drucker haben sich etwas überlebt, früher wurde viel mehr ausgedruckt und nicht jeder hat mehr einen daheim stehen.

    Ja, da musste ich neulich auch dran denken. Früher hat jeder der einen PC hatte im Verwandten- und Bekanntenkreis alles ausgedruckt was nur ging. Listings, Schriftarten, Cliparts, Rezepte, Einladungen usw. usw. das dann oft in Klarsichthüllen gesteckt und diese fein Säuberlich in x (schön beschrifteten) Ordnern aufbewahrt.


    Heute kenne ich niemanden mehr der einen Drucker hat. Wenn mal wirklich was gedruckt werden sollte geht man mit dem Handy und der PDF zum Drogeriemarkt, schmeißt Bluetooth an, lässt es sich in 2 Minuten ausdrucken und geht wieder. Wenn man heute etwas nachschlagen möchte wird kein Ordner mehr benötigt, man spricht in sein Handy was man wissen möchte und bekommt es in sekundenschnelle auf Wunsch sogar vorgelesen. Zuhause sagt man einfach Spionagerätenamen wie ist das Wetter. Also fast wie im Raumschiff Enterprise. 8o

  • Bleiben wir bei es kommt darauf an was man mit der Kiste machen will.

    In die reale Welt übertragen, ich habe letztens günstig für 30€ ein Trekstor Surftab W1 geschossen, kommt von Haus aus mit Windows 10 32 Bit, erfüllte meine Ansprüche nicht, jetzt ist ein Debian 11 64 Bit drauf. 32 GByte interne "Festplatte", 2 GByte RAM, 128 GByte MicroSD Karte im Slot.

    Ich will das Teil als meinen mobilen Daily Driver einsetzen und schauen wie weit ich damit komme, eben um genau dieser Frage nachzukommen, was braucht man wirklich, mit wie viel kommt man aus und ab wann kippt es mit moderner Software von gemütlich nach schmerzhaft. Auf der Kiste läuft jetzt besagtes Debian Bullseye in der AMD64 Variante, Cinnamon als Desktop, VSCode mit Plattform.io, KiCad, Firefox und die anderen üblichen Verdächtigen.
    Die Startzeiten der Programme fallen für mich noch unter gemütlich, das erste mal den Compiler für den ESP32 anwerfen dauert halt nen Moment. Komplizierte Webseiten brauchen auch ne Sekunde länger wie vom dicken Desktop gewohnt. Trotzdem gefällts mir soweit und ich kann mit dem Tablett-SoC der Cherry Trail Reihe recht gut arbeiten nachdem Windows weg ist. Das einzige was ich ab und an verfluche und erschießen will ist das miserable Touchpad vom Tastatursegment. ;)

    Ich kann das Experiment jedem empfehlen der günstig an ein älteres Notebook oder "x86/x64" Tablett dran kommt. Schaut euch mal an wie viel ihr wirklich braucht, von Triple-A Spielen mal abgesehen wird alles laufen.