Hallo Besucher, der Thread wurde 18k mal aufgerufen und enthält 182 Antworten

letzter Beitrag von 8bitfetish am

Gedankenexperiment: Wieviel Computer braucht der Mensch?

  • Aber dann formuliere ich es halt so: Wer ERNSTHAFT etwas "erschaffen" will,

    Sag es, wie es ist: Du formulierst UM, korrigierst dich also. Danke für die Teil-Einsicht, war doch gar nicht so schlimm, oder? ;)


    Im uebrigen merkt ihr gar nicht, dass ihr auf das voellig falsche Argument eingeht.

    OK, du willst offensichtlich nicht mehr über das andere Thema sprechen – kann ich gut nachvollziehen. ;)


    Der Grund fuer die Aussage war, weil ich einen "Stichpunkt" finden wollte, ab dem die Technik eigentlich nur noch leistungsfaehiger wurde.

    Im Gegensatz zu dir meine ich keinen einzelnen Zeitpunkt erkennen zu können. Manche Sachen, die man heute noch tut (Text schreiben, Zahlen berechnen) konnte man schon sehr früh, andere (Videoschnitt) erst später. Bewegt-Bild hat man schon immer produzieren wollen, nur war die Technik nicht leistungsfähig genug für digitales Video, also behalf man sich mit Animationssoftware (schon auf dem C64, später dann mit Amiga oder z.B. HyperCard oder Macromind Director), dann gingen systemweit Briefmarken-große Digital-Videos (z.B. QuickTime 1, 1991), heute ist 8K auch kein großes Problem mehr. Das ist alles eher fließend als dass man einen "Stichtag" finden könnte (außer halt willkürlich). Du willst da irgendwo einen qualitativen Punkt finden, ab dem z.B. die Video-Qualität deinen Ansprüchen genügt. Wie gesagt, bei Video ging es für mich Anfang der 90er los und es wird heute noch immer nicht das Ende der Fahnenstange erreicht haben. Bei 3D ähnliches: Schon auf dem C64 gab es 3D-Content zu bewundern (sogar interaktiv), später wurden die Renderer und die Grafikhardware immer leistungsfähiger, bis man Raytracing in Echtzeit darstellen konnte – und dann kam noch VR und AR hinzu. Wo soll da genau eine Grenze sein?


    Wo ich einen qualitativen Sprung sehe, ist um 2007/2008 herum, als Smartphones den Alltag des ganz normalen Bürgers erreichten und uns "alles" mobil machen ließen. Die meisten heutigen Dienste im Internet (Googledienste insgesamt, Facebook insgesamt, Amazon, eBay, Dropbox, Wikipedia ...) wären nicht annähernd so erfolgreich und sinnvoll, wenn man sie nicht jederzeit und unterwegs nutzen könnte. DAS war wirklich ein qualitativer Sprung – aber um 2000 herum bei den PCs sehe ich keinen.


    Kontinuierliche Verbesserung der Hard- und Software war das seit den 70ern. Und die Bedürfnisse des Menschen ändern sich ja nicht zwingend. Für das Auge Text und Bilder, für die Ohren Sound, zusammen und bewegt halt Video, unter Einbeziehung der Hände Games, beim ganzen Körper AR/VR. Für die Nase gibt es noch nicht so viel (praxistaugliches). Wir sind noch immer mittendrin und für jeden persönlich ergibt sich vielleicht ein Zeitpunkt, wo es ihm "reicht".


    Vielleicht so wie bei Douglas Adams:

    1. Alles was es schon gab, als Du geboren wurdest, ist normal und gewöhnlich. Diese Dinge werden als natürlich wahrgenommen und halten die Welt am Laufen.

    2. Alles was zwischen Deinem 16. und 36. Lebensjahr erfunden wird, ist neu, aufregend und revolutionär. Und vermutlich kannst Du in dem Bereich sogar Karriere machen.

    3. Alles was nach dem 36. Lebensjahr erfunden wird ist gegen die natürliche Ordnung der Dinge.

  • In der Regel orientiert sich das immer am Preislsitungsverhältnis. Das würde meiner Meinung heißen, die breite Masse bewegt in dem Feld:

    C64, 64 KB, 6510@1Mhz, 200€

    C128, 128+64KB, 6510@1Mhz+Z80@2Mhz, 375€

    Amiga 500, 512KB, 68000@7Mhz, 825€

    PC 286, 1MB, 80286@8 Mhz, 1.500€

    Darunter würde nur wenige liegen und darüber auch. Vor allem, wenn man mit der Software auf diesen Systemen alles machen kann. Hinzu kommt, dass die Software ja auch die die Systeme in der breiten Masse optimiert wird, damit diese die Software kaufen kann.

  • Sag es, wie es ist: Du formulierst UM, korrigierst dich also. Danke für die Teil-Einsicht, war doch gar nicht so schlimm, oder? ;)

    Ich habe nicht korrigiert, ich habe praezisiert ;) und das waere auch gar nicht noetig wenn manche sich nicht immer an Details festbeissen wuerden, anstatt die eigentliche Kernaussage zu verstehen ;)


    OK, du willst offensichtlich nicht mehr über das andere Thema sprechen – kann ich gut nachvollziehen.

    Ersetze "willst nicht mehr" durch "wollte noch nie", dann hast Du es ;) weil: siehe oben


    Im Gegensatz zu dir meine ich keinen einzelnen Zeitpunkt erkennen zu können. Manche Sachen, die man heute noch tut (Text schreiben, Zahlen berechnen) konnte man schon sehr früh, andere (Videoschnitt) erst später. Bewegt-Bild hat man schon immer produzieren wollen, nur war die Technik nicht leistungsfähig genug für digitales Video, also behalf man sich mit Animationssoftware (schon auf dem C64, später dann mit Amiga oder z.B. HyperCard oder Macromind Director), dann gingen systemweit Briefmarken-große Digital-Videos (z.B. QuickTime 1, 1991), heute ist 8K auch kein großes Problem mehr. Das ist alles eher fließend als dass man einen "Stichtag" finden könnte (außer halt willkürlich). Du willst da irgendwo einen qualitativen Punkt finden, ab dem z.B. die Video-Qualität deinen Ansprüchen genügt. Wie gesagt, bei Video ging es für mich Anfang der 90er los und es wird heute noch immer nicht das Ende der Fahnenstange erreicht haben. Bei 3D ähnliches: Schon auf dem C64 gab es 3D-Content zu bewundern (sogar interaktiv), später wurden die Renderer und die Grafikhardware immer leistungsfähiger, bis man Raytracing in Echtzeit darstellen konnte – und dann kam noch VR und AR hinzu. Wo soll da genau eine Grenze sein?

    Ich sehe den Sprung/Schnitt da, wo es mehr ist als nur "Computerei". Wenn ich auf dem Computer nur Musik machen kann, die sich dann nach Computer anhoert und die man nur auf diesem Computer abspielen kann, ist fuer mich noch nicht der selbe Level erreicht, wie wenn jemand damit einen Plattenvertrag bekommen kann. Um das Jahr 2000 herum war die Musiksoftware schon reif genug, dass das klappen konnte. Selbiges gilt fuer Video. Wenn ich damit nur Animationen machen kann, die nach Computer aussehen und die auf dem Computer laufen, dann ist fuer mich noch nicht der selbe Level erreicht, wie wenn jemand damit seine Heimvideos oder vielleicht sogar kleine Indie-Filme schneiden kann. Oder das, was man heutzutage so auf YouTube sieht. Natuerlich sind die YouTube-Videos heute in FullHD, aber wenn die im Jahre 2000 noch in PAL- oder VHS-Qualitaet waren, dann ist fuer mich der Punkt ebenfalls erreicht.


    Selbiges gilt fuers reine Abspielen solcher Medien. Man konnte damals DVD-Filme und CD-Musik auf dem Rechner abspielen, also etwas, was ausserhalb der Computerwelt existiert hat. Keine Demos, keine Computergrafik, keine Chiptunes, sondern "echte" Musik und "echte" Filme. Das war um 2000 herum definitiv moeglich.


    Vermutlich ist das das, was ich als Qualitaetskriterium festlege: Dass es das Stadium des "Computerkrams" ueberwunden hat. Und klar ging das bei manchen Dingen schon weitaus frueher - z.B. WYSIWYG-Textverarbeitung ging schon unter Win3.11 und vielleicht auch schon zuvor. Aber damit sind wir eben noch laengst nicht an dem Punkt angelangt gewesen, bei dem man sagen koennte, all die Aufgaben, die man heute so am Computer erledigt, sind damals bereits moeglich gewesen.


    Und natuerlich geht davon heute vieles besser, schneller, und einfacher - aber das habe ich ja schon von Anfang an erwaehnt.

  • Ich war neulich im Krankenhaus und neben mir lag ein Mann über 80. Er hatte nix mit Computern am Hut, hat wohl nie einen besessen. Was er aber hatte, war ein Smartphone. Auf dem hat er aber fast nie getippt, sondern sich nur mit ihm unterhalten. Also Google-Abfragen per Spracheingabe gemacht. Das war für mich definitiv eine ganz neue Qualität der Computerbenutzung. Mit einem c64 hätte der Mann wohl nie was anfangen können.

  • Der Grund fuer die Aussage war, weil ich einen "Stichpunkt" finden wollte, ab dem die Technik eigentlich nur noch leistungsfaehiger wurde.

    Im Gegensatz zu dir meine ich keinen einzelnen Zeitpunkt erkennen zu können. Manche Sachen, die man heute noch tut (Text schreiben, Zahlen berechnen) konnte man schon sehr früh, andere (Videoschnitt) erst später.

    Da muss auch mal ausnahmeweise Zeha recht geben (wenn das mal nicht zu Gewohnheit wird :D).


    Ich habe auch den Eindruck, dass sich für mich privat seit ca. 2000 keine neuen Anwendungsfelder für den PC aufgetan haben.

    Um 2000 herum habe ich meine komplette Musiksammlung auf den PC verlagert und seit dem fast nur noch MP3 gehört. Das gleiche bei Videos. Ich habe damals meine privaten Video-8-Filme in MPG gewandelt. Zum Glück, denn die Sony-Kamera ist kurz danach gestorben.


    Mir fällt tatsächlich kein Anwendungsgebiet ein, das seit dem für mich dazugekommen ist. Diese Entwicklung war um 2000 herum abgeschlossen.

    Seit dem gibt es nur noch quantitativen Fortschritt. Besser Qualität, höhere Auflösungen durch größere Platten, mehr CPU-Power und schnelleres Internet.


    Natürlich konnte man schon vor 2000 am PC Musik hören und Video schauen, aber zu diesem Zeitpunkt war das Qualitätslevel erreicht, das andere Geräte auch boten (CD-Player und Videorekorder). Und zwar mit Standard-PCs ohne Spezialhardware.

  • Die größere Lichtempfindlichkeit zum Rand des Sehfelds ist ein Abfallprodukt davon, dass im Zentrum der Netzhaut mehr Zäpfchen (farbempfindlich) als Stäbchen (nur helligkeitsempfindlich) sind für besseres Farbsehen (Erspähen reifer Früchte). Helligkeitsempfindlichkeit hilt jetzt ja auch nicht viel bei der Tiger-Erkennung, denn die leuchten nicht im Dunklen. Hilft vielleicht etwas in der Dämmerung, aber Tiger-Erkennung ergab evolutionär eigentlich keinen Sinn, oder was hätte das nutzen sollen? Weglaufen - funktioniert nicht; schneller auf dem Baum - funktioniert nicht; mit bloßen Händen gegen den Tiger kämpfen - funktioniert nicht. Allenfalls ließ sich die Kehle hinhalten, damit es vielleicht etwas schneller geht.


    Natürlich ist das extreme Hochformat genau so blöd wie das extreme Breitformat. Wobei: Wenn sich ein großes Breitwand-Display hochkant drehen ließe für eine formatfüllende Darstelluing schöner Frauen, so könnte ich das in der Tat fast sinnvoll finden. (-;


    Für mich ist 4:3 oder 5:4 der beste Kompromiss, allenfalls noch 16:10.


    Hätte ich ein "smartes" Mobilgerät mit Mini-Bildschirm, Blech-Sound und ohne Tastatur, so würde ich nach der Devise verfahren: Zum Computern nur so viel wie nötig nutzen und so wenig wie möglich. Wobei mir bis heute nicht einfällt, wozu es nötig sein sollte, deshalb habe ich keins, sondern nur ein unsmartes Handy zum Telefonieren und (selten) für SMS.


    Ich sehe auch nicht ein, warum ich für unbequemes Unterwegs-Internet noch mal extra Gebühren berappen soll, wenn ich schon für bequemes Zuhause-Internet, das mir reicht, Gebühren berappe. Zumal sich sogar meine Zuhause-Internetnutzung in den letzten Jahren deutlich reduziert hat - die Verheißungen, die ich mir vom Internet mal erhoffte, sind zunehmend einer Ernüchterung gewichen.

  • Mit einem c64 hätte der Mann wohl nie was anfangen können.

    Wer heute in den 80ern ist, war beim Aufkommen der ersten bezahlbaren Computer wie dem C64 in den 40ern. Ich denke, dass sich in der Zeit so einige technisch Interessierte in ihren 40ern, 50ern oder 60ern auch erstmals einen Computer zulegten.


    In einem anderen Thread wurde mal vertreten, es sei fraglos Fake und unrealistisch, wen hier im Forum gemäß Altersangabe 100-Jährige unterwegs seien. Aber wer gesund lebte und sich mit der Computerei auch geistig fit hielt, dem traue ich auch mit 100 noch zu, sich in einem Internetforum zu tummeln. Es gibt übrigens immer mehr Hundertjährige, so dass es wohl auch mal als Diskriminierung erkannt werden wird, das für ein unrealistisches Alter zu halten.

  • Welches System reicht denn für Porno?

    Dell! Oder VHS! :D



    In den 80ern kamen mir auf dem C64 die digitalisierten Ladys in Strip Poker II verblüffend lebensnah vor. Jedenfalls habe ich nie so viel gepokert wie zu der Zeit. (-;

    Kommt mir irgendwie bekannt vor *g*

  • Nimm ein genügend leistungsfähiges Tablet mit nicht zu winzigen Display und die jüngeren Leute in den Agenturen werden die jedem Laptop/PC vorziehen. Auch und gerade zum produktiven zum Arbeiten.

    Ich glaube nach wie vor, dass Tastatur + Maus am Ende besser sind fuer produktives Arbeiten. Das mit dem Finger mag intuitiver sein, aber Tastatur und Maus sind praeziser, und wenn man gelernt hat, damit umzugehen, ist man damit deutlich besser unterwegs. Speziell auch fuer anspruchsvollere Aufgaben. Das Wischiwaschi mit dem Finger ist kein Ersatz fuer alles, meine Meinung.

    Ist vielleicht auch ne Gewöhnungsfrage - obwohl ich mich schwertue mit der Vorstellung bei Vegas Pro, wenn ich in der Timeline in der Audio Waveform genau auf einen Peak schneiden will, wie bei vielen Koptervideos, das mit Wischen zu machen.

    Vielleicht funzt das irgendwie gut, wenn die Software auf Wischiwaschi optimiert ausgelegt wird? Aber ob man damit wirklich alles

    so detailliert wie mit ner Maus machen/schneiden kann?


    Anderseits - Waypointflüge für meinen Multikopter kann ich umständlich/mühsam mit der Maus zusammenklicken (jeden Point einzeln setzen), oder ich male einfach auf dem Smartphone mit dem Finger genau auf dem Google Maps Hintergrund die Strecke ein (die Waypoints werden dann automatisch auf diese gemalte Strecke gesetzt). Auch das Malen ginge mit der Maus am PC, aber nicht so schön/rund/einfach.


    Es kommt also auch auf den Anwendungsfall an.


    Grundsätzlich möchte ich meinen konventionellen PC (ungleich Schlepptop) nicht missen. Nur hier bekomme ich für nen Appel und n Ei (ok stand vor der Corona Preisepedemie ) das Optimum an (Preis/)Leistung - massive Power für wenig Geld - perfekt für Gaming, Videoarbeitung, 3D-Modelling, etc. Und durch das große Gehäuse ist auch Platz für große Kühler/Lüfter, die auch bei Last einen flüsterleisen Wohnzimmer/Schlafzimmer-PC ermöglichen.


    Nur mal am Beispiel vom Videoschnitt: Mein Sohn hat verzweifelt versucht, die Timeline mit den Fingern zu bearbeiten bis er kapiert hat, dass er am PC dafür die Maus benutzen "muss". Das war für völlig "bekloppt". Direkt mit den Fingern am Regler, Leiste, Bild, ... das ist für ihn viel intuitiver. Eine Maus ist immer noch ein "drittes Teil" in der Verbindung "Kreativer Gedanke" und "Umsetzung".


    Nimm ein genügend leistungsfähiges Tablet mit nicht zu winzigen Display und die jüngeren Leute in den Agenturen werden die jedem Laptop/PC vorziehen. Auch und gerade zum produktiven Arbeiten.


    Die PCs sind was für "alte Säcke" wie uns. :D

    Hehe - witziges Beispiel - geht ja auch in Richtung Gewöhnungssache.

    Erinnert mich auch daran, wie Scotty in nem Trekkie Film (bei ner Zeitreise in die Vergangenheit) versuchte, die nicht vorhandene Sprachsteuerung zu nutzen :D




    Nochmal zum Thema - ab wann (welchem Hardwarestand) konnte man all das machen was man will...(auch bezogen auf die Hardwareentwicklung in der realen Welt - also nicht nur auf die Fantasie in diesem Setting)

    Oft wird um 2000 genannt. Ohne Videoschnitt bleibe ich bei meinem Amiga 1000 - 1986...


    Mukke machen - check

    Demos - check

    Animationen - check

    Einbindung von GFX mit Genlock in Video - check

    Anderer kreativer Kram - check

    Textbearbeitung - check

    Schnell in der Onlinewelt (bezogen auf BBS) - check

    Daddeln ohne Ende - check

    Über Gurus ärgern - (leider auch) - check

    Internet - ohne Massen an Clicki Bunti (stripped down, wie in diesem Gedankenexperiment) - check


    Was man auch schnell vergisst, wieviel unserer aktuellen (verglichen z.B. mit obigen Amiga 1000) enormen Rechenleistung auch wieder durch Bloatware (inkl das Internet Webdesign - was man auch als komplette Bloatware sehen kann) aufgefressen wird. Um nen

    Text zu schreiben erstmal ne XXL-Installation von Word/Office machen? Für manche auch das beste Slowdown.exe aller Zeiten :D

    Oder doch einfach n Notepad.exe aufmachen? Was ich oft tue. ;)

  • Wenn ich mir die Liste der Systeme so ansehe dann würde es wohl ein C128 werden. 80x25 sind irgendwie ein Muss für gescheites Arbeiten, der Rest ist eigentlich auch schnell genug. Und da ich ja trotzdem moderne Medien habe sind auch die 128k kein Problem, wenn ich einen langen Text lesen oder gar schreiben will wird auf Platte geswappt oder halt in Kapiteln gearbeitet. Da mir ja ein moderner (Text-)Browser zur Verfügung steht kann ich auch alles in HTML schreiben und dort ein verlinktes Inhaltsverzeichnis haben, mit anklickbaren Querverweisen und allem anderen Luxus. Das geht auch alles wunderbar in 80x25.

  • ZeHa Seit 2000 ist nichts neues mehr dazugekommen? Was ist mit 3D- Druck?

    Doch, das ist dazugekommen, die Frage waere jetzt aber, ob das nicht mit einem Rechner von 2000 auch noch gehen wuerde? Den Druck macht ja der Drucker, d.h. man braucht auf seinem PC von 2000 "nur" ein CAD-Programm, mit dem man das Modell designt, und das schickt man dann an den Drucker. Ich kenne mich da jetzt nicht so gut aus, aber ich wuerde mal vermuten so eine Software waere 2000 kein Problem gewesen. Zumindest gab es damals 3D-Konstruktionssoftware bereits, ob man die jetzt nutzt um Modelle fuer 3D-Spiele zu machen oder als Modell fuer einen 3D-Drucker, duerfte vom Kern her nicht so einen grossen Unterschied machen.


    Natuerlich gibt es heute Dinge, die es 2000 einfach noch nicht gab. Das ist unbestritten. Auch YouTube gab es erst seit 2005 - aber Videos im Internet gab es schon 2000. Wenn sich also die Computertechnik nicht mehr weiterentwickelt haette, haette jemand 2005 trotzdem eine Seite namens YouTube programmieren koennen. Der Knackpunkt war hier ja nicht das Abspielen der Videos (denn man konnte bereits Filme in DVD-Qualitaet auf einem Rechner von 2000 abspielen), sondern die Internet-Leitung. Und diese hatte ich in meiner "These" ja erwaehnt, diese war der Flaschenhals. Waere die (PC-)Computertechnik 2000 stehengeblieben, aber die Internetbandbreite trotzdem erhoeht worden, dann waere sicherlich trotzdem einiges von dem moeglich, was wir heute so an unseren PCs machen.

  • Wenn das Preis/Leistungsverhältnis so wäre wie Du als Beispiel schreibst,genügt mir der Amiga 500.

    Der 500er war im Vergleich zum 64er ein Quantensprung.

    Wenn ein 286er dann gleich 5000 oder so kosten soll, nö danke.

    Da ist der Unterschied nicht soo dolle.


    Das ist wie heute eine PS5 und ein starker PC für tausende Euro.

    Den Unterschied sehe ich nicht wirklich

  • ZeHa & tilobyte : Ich denke wir reden hier über den Otto Normalo & nicht über proffessioneller Computereinsatz.

    3d-Druck ist mMn eine Mode-Erscheinung wie Anno dazumal Scanner & Plotter. Der Heimanwender will doch nur Zocken, Filmchen gugge, Internet Surfen und Oma ein Geburtstagsbrief schreiben. Auch VR wird nur ein Modeerscheinung sein, wie damals die 3D-Filme im Kino. Das sind keine Massenmarkt Produkte (mMn).

  • Was ist mit 3D- Druck?

    Der Slicer würde auch aufm Brotkasten oder der CP/M Kiste laufen, wollte übrigens skern was mit machen, kein Plan wie weit er schon ist.
    Dauert dann vielleicht länger, aber davon sprach ja keiner. Und um die CNC Befehle abzurattern langt erwiesenermaßen auch nen popeliger AVR.

    Oder VR würde ich auch als grundsätzlich neu bezeichnen.

    Weiß nicht, hat 1991 schon ein 2000er gemacht, der Automat nannte sich Dactyl Nightmare und tourte durch Europa, ich hatte auch das Glück den mal ausprobieren zu dürfen als Kiddo.
    Gabs auch Tonnenweise andere Spiele für das System, da hatte der Nostalgia Nerd mal vor ner Weile mit Octavius King eine Serie drüber.

  • ZeHa & tilobyte : Ich denke wir reden hier über den Otto Normalo & nicht über proffessioneller Computereinsatz.

    3d-Druck ist mMn eine Mode-Erscheinung wie Anno dazumal Scanner & Plotter. Der Heimanwender will doch nur Zocken, Filmchen gugge, Internet Surfen und Oma ein Geburtstagsbrief schreiben. Auch VR wird nur ein Modeerscheinung sein, wie damals die 3D-Filme im Kino. Das sind keine Massenmarkt Produkte (mMn).

    Naja darum gehts mir aber nicht mal. Mir gehts nur drum, was der PC von 2000 leistet. Ein CAD-Modell fuer einen 3D-Druck wuerde man auch damit hinbekommen, meiner Meinung nach.