Hallo Besucher, der Thread wurde 12k mal aufgerufen und enthält 182 Antworten

letzter Beitrag von 8bitfetish am

Gedankenexperiment: Wieviel Computer braucht der Mensch?

  • Zum Säbelzahntiger-Argument: Wir haben nur einen klitzekleinen Punkt maximaler Sehschärfe im Zentrum des Sehfeldes. Zu den Rändern hin nehmen wir nur Schemen und Bewegungen wahr. Die traurge Wahrheit ist: Gegen mächtige Raubtiere waren unsere Vorfahren bis zur Erfindung wirksamer Waffen wehrlos, da wurde bei einer Begegnung mit einem hungrigen Exemplar einfach gestorben. Vielleicht haben wir deshalb bis heute eine andauernd groteske Vermehrungsrate trotz eines mit 8 Milliarden aus den Nähten platzenden Planeten.

  • Und natuerlich kann man an ein Tablet auch Tastatur und Maus anschliessen, die Frage ist dann aber, ob das dann nicht eigentlich "Desktop" ist.

    Das dachte ich mir schon, dass du einfach alles mit optionaler Tastatur zum Desktop-System erklärst, egal, ob da ein Desktop-OS drauf läuft oder nicht – Hauptsache das ursprüngliche Argument passt noch irgendwie mit Hängen und Würgen. ;)


    Ich wuerde davon ausgehen, dass die meisten bekannten YouTuber z.B. ihre Videos noch am PC/Laptop schneiden.

    Tun sie auch – aber das ist deren BERUF. Die kaufen sich einfach für 10.000 Euro eine gute Apple/Canon-Ausstattung und können damit alles machen, was sie wollen – und bei denen kommt es auch darauf an, wie schnell denn ein 4K-Video mit vielen Spuren und Effekten gerendert werden kann, weil die alle paar Tage zu einem bestimmten Zeitpunkt ein frisches Video hochladen müssen. Für die paar zehntausend bekannten YouTuber ist der "Desktop"-Rechner (der meistens ein MacBook Pro sein wird) ;) eine Workstation, um den Job zu machen. Aber viel Material, gerade von Privatleuten, entsteht durchaus schon mit dem Smartphone/Tablet, mit dem auch zuvor aufgenommen wurde. Und bei TikTok und Instagram sind das wahrscheinlich an die 100% des Contents, der nie einen Desktop-Rechner vor dem Upload berührt hat. Auch die meisten Postings in Social-Media-Diensten und Messangern stammen von Mobilgeräten. Von daher ist die Aussage, man könne am Mobilgeräte quasi NICHTS erschaffen (und im Umkehrschluss nur konsumieren), einfach Unsinn.


    Ich persönlich arbeite auch am Desktop-Rechner am Liebsten – aber ich bin ja so sozialisiert worden, wie alle anderen über 30 oder 40 Lebensjahren auch. Das hinterlässt halt Spuren. Aber ich kenne Jugendliche, die auf dem Smartphone (gefühlt) auch nicht langsamer tippen, als ich auf einer Desktop-Tastatur. Und viele (gerade grafische Laien) wollen auch gar nicht so genau pixeln und alles pixelgenau platzieren, wie ich. Die wollen (und können) nicht aus tausenden von Schriften auswählen und komplexe Layouts entwerfen. Trotzdem erzeugen die Content.


    Im TV sind dargestellte Menschen die wichtigsten Bildelemente, und die erstrecken sich eher vertikal als horizontal (auch Gesichter in Nahaufnahme). Am Computer nutzen etwa Webseiten breite Formate selten aus, zu lange Textzeilen wären auch schlecht für die Lesbarkeit. Oft klebt dann die Webseite in der Mitte und links und rechts davon sind breite leere Streifen.

    Wenn du den (einzelnen) Menschen als optimales Maß für Video ansiehst, müsstest du dich ja über den aktuellen Boom der Smartphone-Hochkant-Videos freuen. Eigentlich perfekt. ;) Ich persönlich teile die Begeisterung eher nicht, weil (aktuelle) stationäre Geräte (allen voran TVs) damit ihre liebe Mühe haben. Zudem gibt es ja andere Sachen, die von einer eher breiten Darstellung profitieren, Landschaften z.B. oder Menschengruppen. Es kommt doch vielmehr darauf an, WIE etwas aufgenommen wurde, als dass man das "optimale" Format auf eine einzelne Form reduzieren kann. Ich möchte mir "den Herrn der Ringe" nicht auf 4:3 oder hochkant angucken!


    Was das Lesen von langen Textzeilen oder das Angucken leerer Flächen angeht: Dafür nutze ich ja gerne FENSTER. Schon 2 nebeneinander reduzieren das Problem erheblich. Über leere Flächen musste ich mich auf jeden Fall noch nie beschweren – bei mir sind Fenster immer nur so breit, wie es nötig ist, um alles wichtige zu sehen. ;)


    Es ist nunmal so, dass sich je nach Content das Seitenformat ändert – bei TV/Video hat sich 16:9 durchgesetzt, bei Kino ist es 21:9, bei Fotos nach wie vor ca. 4:3 (und 3:4), bei Text (z.B. PDF) eher hochkant (1:√2 oder US-Letter) oder sogar formatfrei und theoretisch unendlich (Code oder ein Newsfeed). Ausgabe-Geräte müssen oft mit allem irgendwie klarkommen und somit gibt es halt Auswahl und unterschiedliche Kompromisse. Ich persönlich mag für meine Content-Auswahl durchaus 16:10 als Kompromiss – aber da wird jeder andere Vorlieben haben.

  • Hauptsache das ursprüngliche Argument passt noch irgendwie mit Hängen und Würgen.

    Das ist totaler Quatsch, ich habe von produktivem Arbeiten geredet und Dein gesamter restlicher Post bezieht sich ebenfalls darauf ;)


    Ist mir schon klar, dass man seine Familienvideos, in denen das Kind vom Dreirad faellt, auch am Smartphone zurechtschneiden kann. Wer aber wirklich "was machen" will, der macht das am Desktop. Und "was machen" ist fuer mich produktives Arbeiten, egal ob professionell oder ambitioniertes Hobby. Und genau darum ging es mir.

  • Ist mir schon klar, dass man seine Familienvideos, in denen das Kind vom Dreirad faellt, auch am Smartphone zurechtschneiden kann. Wer aber wirklich "was machen" will, der macht das am Desktop. Und "was machen" ist fuer mich produktives Arbeiten, egal ob professionell oder ambitioniertes Hobby. Und genau darum ging es mir.

    Sorry, aber deine ursprüngliche Aussage war doch folgende:

    Sobald man etwas "erschaffen" will, ist man nach wie vor auf einen Desktop-PC angewiesen. Egal ob das Software, Videos, Musik oder sonstwas ist.

    Aber sobald man diese Aussage etwas angreift, wird entweder (A) alles, was man mit Mobilgeräten produzieren kann, zu nutzlosem "Cat-Content" degradiert oder aber (B) alles, an das man ein Keyboard hängen kann (also quasi jedes IT-Gerät), zum Desktop-PC erklärt. Und das nur, weil man nicht zugeben will, dass die ursprüngliche Aussage so nicht stimmt.


    Die "echten Profis" nehmen natürlich Desktop-Systeme (wobei das immer seltener wirkliche feste "Desktops", sondern zunehmend Notebooks sind) für ihre Spezialaufgaben (das machst du so und das mache ich so und die meisten anderen hier auch (und wir sind ja auch "alte Knacker über 40")) – in Zukunft wird man das dann (wieder) als Workstations bezeichnen (und seltener vorkommen). Und der "Homecomputer", an dem die 99% Laien irgend etwas "erschaffen" (JEDER ist in fast allen Bereichen Laie), wird immer seltener ein klassischer Desktop-PC (womöglich noch so eine alte große Blechkiste mit drölfzig Lüftern und viel umbauter Luft) sein.


    Den Meisten reicht auch einfach die Genauigkeit und Geschwindigkeit von aktuellen Mobil-Geräten. Wer will denn irgendwas pixelgenau platzieren? Oft hilft ja auch irgendeine KI bei der Auswahl (Auto-Freistellen, Auto-Szenen-Erkennung, magnetische Elemente, Auto-Layout ...) von Bereichen innerhalb eines grafischen Contents. Bis auf ein paar "pedantische Pixelschubser" (zu denen ich uns zähle) klagt doch kaum jemand über fehlende Genauigkeit. ;)


    Wie gesagt: die meisten Fotos, die man heutzutage im Netz (vor allem in sozialen Medien) findet, wurden nicht mit PC + DSLR erzeugt (erschaffen), sondern mit dem Smartphone – und auch dort bearbeitet und hochgeladen. Und bei Videos geht es jetzt sehr stark in die gleiche Richtung (siehe TikTok und Insta). Bei Text (solange das keine mehrseitigen Elaborate sind) ist das schon lange so. Aber für dich hat das anscheinend keine ausreichenden "Schöpfungshöhe" (ein Begriff aus dem Urheberrecht) und gilt daher grundsätzlich nicht. Ich finde, du betrachtest die ganze Sache etwas zu elitär.


    Also, selbst wenn Profis für das Erstellen von professionellem Content Desktop-PCs nutzen (schließlich ist Zeit hier Geld), heißt das nicht, dass man unbedingt einen Desktop-PC benötigt, um etwas zu erschaffen – da bist du klar übers Ziel hinaus geschossen. Es geht manches vielleicht etwas schneller oder sauberer – aber das heißt noch lange nicht, dass es mit Mobil-Technik grundsätzlich nicht geht. Vielen reicht auch 80% Perfektion, es muss nicht immer 100% sein.

  • Ja lieber Retrofan, verzeihe meine ungenaue Ausdrucksweise, natuerlich kann man mit Smartphones und Tablets auch "was machen", z.B. Fotos und Videos und diese auf die entsprechenden Plattformen hochladen. Aber dann formuliere ich es halt so: Wer ERNSTHAFT etwas "erschaffen" will, der nutzt vermutlich nach wie vor lieber einen Computer mit Maus und Tastatur. Und wem das reicht, was das Smartphone/Tablet bietet, der kann auch gerne das nutzen.

  • Ja lieber Retrofan, verzeihe meine ungenaue Ausdrucksweise, natuerlich kann man mit Smartphones und Tablets auch "was machen", z.B. Fotos und Videos und diese auf die entsprechenden Plattformen hochladen. Aber dann formuliere ich es halt so: Wer ERNSTHAFT etwas "erschaffen" will, der nutzt vermutlich nach wie vor lieber einen Computer mit Maus und Tastatur. Und wem das reicht, was das Smartphone/Tablet bietet, der kann auch gerne das nutzen.

    Definiere "ernsthaft". Es ist ganz einfach: Wer mit was auch immer sein Geld verdient, macht es professionell und damit auch ernsthaft. Ich könnte mit meinem Tablet auch nichts nach meinen Maßstäben "Gutes" produzieren, aber ich lasse die Möglichkeit gelten, dass andere es können.

    Es hat übrigens Leute gegeben (ahem: Michelangelo), die ganz ohne Maus und Tastatur oder Tablet wirklich Beeindruckendes erschaffen haben. Und es gibt Leute, die das ganz ernsthaft auch heute noch tun. So ... und jetzt?

  • Ich hab jetzt keine Lust mich da mit Kleinkariertheiten und Erbsenzaehlerei zu beschaeftigen, das ist mir echt zu doof. Wer die Aussage "wer ernsthaft was machen will" nicht versteht, der soll es einfach bleiben lassen. Ab einem gewissen Punkt benoetigt man fuer die Arbeit am PC (und darum geht es hier im Thread, mir egal was die Leute im Mittelalter gemacht haben) eine Maus und Tastatur, und das ist heute noch so, Punkt aus Ende.

  • Im uebrigen merkt ihr gar nicht, dass ihr auf das voellig falsche Argument eingeht. Meine eigentliche Aussage war die, dass seit ca. 2000 nichts grundlegend neues mehr hinzugekommen ist, was man mit dem persoenlichen Computer machen kann. Das mit den Smartphones und Tablets, was Snoopy daraufhin erwaehnt hat, ist die technische Weiterentwicklung dessen, aber wenn die Leute heute damit auch "nur" Videos schneiden und Bilder bearbeiten, dann sind damit noch keine neuen Use-Cases dazugekommen. Und DAS war die Aussage. Wie waers wenn ihr DAZU mal was sagt, anstatt euch an irgendwelchen Details aus irgendeinem Nebensatz aufzuhaengen.

  • Wieviel Computer braucht der Mensch?

    (nicht: wieviele Computer braucht der Mensch!)

    Also ich brauche was mit dem in mich mit der (online) Welt austauschen kann. Das ging für mich ab 1985 mit dem C64, in diversen Mailboxen, über genau die Themen, die mich auch heute interessieren - C64, Musik, Politik, rumalbern, Kontakte knüpfen, etc.

    Das würde mit dem C64 auch heute noch funzen, wenn es genug interessante BBS gibt (kann ich aktuell gerade nicht beurteilen).

    Bezüglich Kreativität würde (ok Konjunktiv kann man streichen) ich mich auch heute nicht mit nem C64 langweilen (+ Reu? *g*).

    Punkto Textverarbeitung langt mir alles ab meinem Amiga 1000. Mit dem hab ich daaamals™ schon die Arbeiten für die Uni, Bewerbungen, etc geschrieben. Auch auf meinem aktuellen Ryzen 5 3600 kann ich nicht schneller tippen. ;)



    Amiga 500, 512KB, 68000@7Mhz, 825€

    PC 286, 1MB, 80286@8 Mhz, 1.500€

    In dem Bereich würde ich (so wie bis heute) kaufen, da man da punkto Preis/Leistung das Optimum kauft



    PC 386, 4MB, 80386@25 Mhz, 7.000€

    Ab da dann nicht mehr. Bin ich Krösus? Hab ich mir daaamals™ sofort nach dem Release den Amiga 1000 geholt? Eben.


    Was die Kompatibilität mit dem Internet angeht - böse Zungen behaupten ja es wurde geschaffen, um über (Whatsapp o.ä. inkl. Vorgänger) lustige Katzenvideos zu verschicken.

    In meinem Bekanntenkreis nutzten viele ihre (insbesondere für damalige Verhältnisse) pfeilschnellen Rechenknechte fast ausschließlich (+ Netflix) für sowas. Kreativität? 3D-Modelling? Nöö - aber haste schon das Video von dem Affen gesehen, der auf die Fresse fliegt?


    Also die ganze Meme-Video-Scheiße braucht mein Rechner nicht darstellen können.

    Videoschnitt? Hab ich...



    PC I5, 4 GB, I5@3100Mhz, 14.000.000€

    ?


    Njet.


    Dann halt wie daaamals™ auf VHS schneiden :D

  • Ich halte inzwischen 16:10 fuer das optimale Format.

    Genau! 1920 x 1200 - Mein Lieblingsformat. :thumbsup:

  • Ich hab jetzt keine Lust mich da mit Kleinkariertheiten und Erbsenzaehlerei zu beschaeftigen, das ist mir echt zu doof. Wer die Aussage "wer ernsthaft was machen will" nicht versteht, der soll es einfach bleiben lassen. Ab einem gewissen Punkt benoetigt man fuer die Arbeit am PC (und darum geht es hier im Thread, mir egal was die Leute im Mittelalter gemacht haben) eine Maus und Tastatur, und das ist heute noch so, Punkt aus Ende.

    Du hast recht, wir streiten wirklich nicht über eine Behauptung, die sich durch eine simple YouTube Suche entkräften lässt:

    Suche nach "video edition on ipad pro" und hier dieses Video zeigt den Workflow:

    https://youtu.be/3GFnoxQAYMg


    Und das hat echt nichts damit zu tun, dass die anderen kleinkariert wären. Der Punkt ist: es geht. Ob das jetzt irgendjemandem gefällt oder nicht, ist zweitrangig.


    Außerdem gehts in dem Thread wirklich nicht ausschließlich um PCs. Der ZX81 war kein PC. Der Commodore 64 war es nicht. Und der Raspberry Pi ist auch keiner.

  • Die eigentliche Frage hinter der Frage ist doch, wie weit die beschriebenen Systeme so optimiert bzw ausgequetscht wurden, wie man es mit dem C64 gemacht hat.


    Wie würde zum Beispiel das Internet in einer solchen Welt aussehen?

    Gäbe es zwei oder drei große, den Software-Markt beherrschenden Konzerne?


    Oder gäbe es (wie ganz früher) viele spezialisierte Firmen, die Marktführer in ihrer Nische sind?


    Und was bedeutet das für Innovation? Oder für OpenSource?


    Ach ja, was kostet in Deiner Welt denn eigentlich ein Smartphone?

  • Der Punkt ist: es geht.

    LOL. Natuerlich geht es. Genauso wie ich mit einem LKW zum Baecker fahren kann. Was ich aber mit meinem letzten Post sagen wollte: Mir ist das voellig egal. Das ist gar nicht das Thema. Mir geht es um was voellig anderes. Meine Aussage ist nach wie vor, dass man mit der Computertechnik von 2000 alles machen konnte, was man heute auch kann. Ob Du das heute auf einem PC machst, oder Laptop, oder Handy, oder Tablet, ist mir eigentlich (fast) egal, und der einzige Unterschied ist hoechstens noch, dass ich das mit dem Handy auch auf dem Sofa machen kann - aber selbst das ging bereits mit dem Laptop.


    Letztendlich sind alles "persoenliche Computer", und die Technik ist heute weiter als vor 20 Jahren. Aber wir machen keine "neuen" Dinge damit, wir machen sie hoechstens auf eine andere Weise, und es machen vielleicht heute mehr Leute als damals. Aber wir machen nichts voellig neues. Waehrend man das fuer 1980 und 2000 (ebenfalls 20 Jahre) gewiss nicht behaupten kann.

  • Im uebrigen merkt ihr gar nicht, dass ihr auf das voellig falsche Argument eingeht. Meine eigentliche Aussage war die, dass seit ca. 2000 nichts grundlegend neues mehr hinzugekommen ist, was man mit dem persoenlichen Computer machen kann. Das mit den Smartphones und Tablets, was Snoopy daraufhin erwaehnt hat, ist die technische Weiterentwicklung dessen, aber wenn die Leute heute damit auch "nur" Videos schneiden und Bilder bearbeiten, dann sind damit noch keine neuen Use-Cases dazugekommen. Und DAS war die Aussage. Wie waers wenn ihr DAZU mal was sagt, anstatt euch an irgendwelchen Details aus irgendeinem Nebensatz aufzuhaengen.

    Das trifft eigentlich auch nur auf den privaten Sektor zu. Im professionellen Sektor sind da schon Dinge hinzu gekommen, die 2000 noch nicht wirklich machbar waren. Alleine die Virtualisierung ging damals nicht, weil dafür die Hardware noch nicht vorbereitet war. Das war tatsächlich viel zu langsam. Und naja, ich virtualisiere auch privat so einige Systeme, also bin ich auf Hardware angewiesen, die diesen Kram auch unterstützt.


    Man kann natürlich versuchen, im privaten Sektor mit einer Maschine von 2000 weiter zu arbeiten, aber ob das praktikabel ist, steht auf einem anderen Blatt.

    Das war ja der ursprüngliche Gedanke dieses Threads und meiner Meinung nach hängen die Anforderungen an Rechenleistung und Speicher nicht nur von internen Bedürfnissen ab, sondern auch von externen Zwängen, die man nicht in der Hand hat. Ich kann nur sagen, dass ich mit den Anforderungen von heute nicht mehr mit einem Pentium III 500 mit 128MB RAM von 2000 arbeiten könnte. Es ginge ... unter der Voraussetzung, offline arbeiten zu können und abgeschottet als Eremit. Aber ansonsten klappt das nicht.

    Das war ja auch mein Ausgangspunkt in dem Thread, weil ich das Szenario nicht für realistisch genug halte, darüber überhaupt eine vernünftige Aussage machen zu können.

  • LMeine Aussage ist nach wie vor, dass man mit der Computertechnik von 2000 alles machen konnte, was man heute auch kann.

    Kurze Antwort: Nein.

    Thema Virtualisierung. Das ging 2000 nicht vernünftig. Clustering war noch am Anfang und klappte nicht richtig.

  • Ich hatte ja extra drum gebeten, mir Dinge zu nennen, die damals NICHT moeglich waren, um meine Aussage in Frage zu stellen. Ja, Virtualisierung ist ein solches Thema, was damals noch nicht ging, auf der anderen Seite ist das jetzt fuer mich kein "typischer" Use-Case, wie die anderen, die ich so aufgezaehlt hatte. Auch wenn ich selbst u.a. eine VM nutze.


    Ich will auch nicht behaupten, dass ich heute noch problemlos mit einem Pentium III klar kaeme. Der Grund fuer die Aussage war, weil ich einen "Stichpunkt" finden wollte, ab dem die Technik eigentlich nur noch leistungsfaehiger wurde. Denn fuer die Ur-Frage des Threads waere fuer mich die Antwort, ich brauche ein System, mit dem ich - grundsaetzlich - all das tun kann, was ich heute auch tun will. Da waere mir der C64 noch zu simpel, und Win3.11 vermutlich auch noch. Aber um ca. 2000 herum konnte mein Rechner alles, was mein heutiger auch kann. Nur halt langsamer, weniger performant, und weniger bequem. Klar wuerde man ein Video damals vielleicht Tage rendern lassen, welches heute nur noch Stunden dauert. Aber auf dem C64 waere das halt schon generell ausgeschlossen.

  • Zum Säbelzahntiger-Argument: Wir haben nur einen klitzekleinen Punkt maximaler Sehschärfe im Zentrum des Sehfeldes. Zu den Rändern hin nehmen wir nur Schemen und Bewegungen wahr. Die traurge Wahrheit ist: Gegen mächtige Raubtiere waren unsere Vorfahren bis zur Erfindung wirksamer Waffen wehrlos, da wurde bei einer Begegnung mit einem hungrigen Exemplar einfach gestorben. Vielleicht haben wir deshalb bis heute eine andauernd groteske Vermehrungsrate trotz eines mit 8 Milliarden aus den Nähten platzenden Planeten.

    Leider ein völlig falsches Argument, in jeder Beziehung. Das einzig richtig ist "der aktive Ausschnitt des scharfen Sehens ist nurs sehr gering (Rule of Thumb: anderthalb Grad)". Das ist aber beliebe nicht im "Zentrum unseres Sehfeldes". Es sei denn, jemand kann (wie mein Onkel) seine Augen nicht bewegen. Durch die unbewussten Bewegungen de Auges wird eben ein komplett scharfer Seheindruck erstellt, auch wenn das Auge zu jeden Zeitpunkt nur kleinen Bereich scharf erfassen kann. Und zwar horizontal bis deutlich über 180° heraus (ca 215°)

    Gerade in der Peripherie des Sehens ist der Mensch auch besonders auf Bewegungen und Helligkeitsunterschiede getrimmt. (Aus dem Augenwinkel sieht man sowohl Flimmern besonders gut als auch Sterne vor vergleichsweise hellem Himmel). Den Tiger perfekt scharf zu sehen war nie das Ziel.


    Fakt ist: das menschliche Gesichtsfeld ist komplett auf horizontal eingestellt. Es umgibt uns eine horizontale Welt.

    Es fällt auch generell leichter, die Augen horizontal zu verstellen (versuch mal die ganze Zeit nach oben zu schauen, das tut geradezu weh, nach links und rechts aber nicht)

  • Ich wuerde davon ausgehen, dass die meisten bekannten YouTuber z.B. ihre Videos noch am PC/Laptop schneiden.

    Big Clive erstellt seine Videos meines Wissens komplett am Mobiltelefon - aber da sind auch nicht viele Schnitte drin


    Ja, Virtualisierung ist ein solches Thema, was damals noch nicht ging

    "The first product, VMware Workstation, was delivered in May 1999, and the company entered the server market in 2001 with VMware GSX Server (hosted) and VMware ESX Server (hostless)." (Quelle)


    Und mit richtiger Hardware statt PC-Spielzeug ging Virtualisierung schon in den 1970ern ;)

  • Nennen wir es "sinnvoll nutzbar" ;) ist doch nicht so wichtig wann exakt was rauskam, letztendlich hat damals noch kaum jemand eine VM auf seinem Rechner gehabt (außer z.B. Emulatoren, bevor da jetzt wieder einer spitzfindig wird). Für mich ist Virtualisierung ohnehin kein UseCase, der in diese Aufzählung passt. Letztendlich konnte man sich auch damals schon nen zweiten Rechner hinstellen. Virtualisierung ist lediglich eine Vereinfachung, Erweiterung der Technik. Aber kein UseCase so wie Tabellenkalkulation, Chatten, Zocken oder Videobearbeitung.