Hallo Besucher, der Thread wurde 18k mal aufgerufen und enthält 182 Antworten

letzter Beitrag von 8bitfetish am

Gedankenexperiment: Wieviel Computer braucht der Mensch?

  • Ich frage mich immer wieder, wie die Menschheit über 10.000 Jahre leben konnte ohne Computer?

    'Brauchen' tun wir diese Geräte eigentlich gar nicht.

    Du brauchst auch kein Haus, ein Zelt, oder gar eine Höhle reicht. Und selbst letztere auch nicht. Feuer? BRAUCHT man das?

    Luft, Wasser, Essen, poppen zur Arterhaltung.

  • Also die Auflösungs-Inflation finde ich bescheuert. Da hängt dann im Wohnzimmer ein die ganze Wand einnehmender Hirnabsauger, aber davon muss sieben Meter abgerückt werden, weil sich sonst das Geschehen an den Rändern nicht registrieren lässt. Da halte ich einen subjektiven Qualitätsvorteil vor einem nur die halbe Wand einnehmenden Absauger in drei Meter Entfernung für fraglich.

  • Nimm ein genügend leistungsfähiges Tablet mit nicht zu winzigen Display und die jüngeren Leute in den Agenturen werden die jedem Laptop/PC vorziehen. Auch und gerade zum produktiven zum Arbeiten.

    Ich glaube nach wie vor, dass Tastatur + Maus am Ende besser sind fuer produktives Arbeiten. Das mit dem Finger mag intuitiver sein, aber Tastatur und Maus sind praeziser, und wenn man gelernt hat, damit umzugehen, ist man damit deutlich besser unterwegs. Speziell auch fuer anspruchsvollere Aufgaben. Das Wischiwaschi mit dem Finger ist kein Ersatz fuer alles, meine Meinung.

    Deswegen hat ja Apple wieder den Stift eingeführt - als tolle neue Errungenschaft. :D

    Aber damit kann man wirklich präzise arbeiten - nicht ich, aber z.B. meine Tochter.


    Andere stöpseln eine Tastatur an ihr Tablet und benutzen den ganz selbstverständlich als Laptop um z.B. längere Texte zu schreiben. Das habe ich inzwischen gelernt, dass mit dem Tablet alles genauso gut geht, wie mit dem Laptop.


    Aber ich persönlich fühle mich sogar schon durch gekrüppelte Laptop-Tastaturen eingeschränkt und arbeite am liebsten am Desktop-PC.

  • Oder gibt es irgendetwas, was erst spaeter hinzukam, was man "fundamental" nennen koennte?

    GPU coding generell und

    -> machine learning insbesondere.

    Gut, da ist aber die Frage ob man das nicht auch unter "groesser, schneller, weiter" verbuchen koennte? Also technisch gesehen ist das mit Sicherheit ein Fortschritt, aber hat das eine nennenswerte Auswirkung auf das, was ich an meinem PC so rein Use-Case-maessig tun kann?


    Machine Learning wuerde ich jetzt eher als etwas verbuchen, was man vielleicht auf Grossrechnern macht, und dass man Code auf der GPU ausfuehren kann, ist fuer mich wie gesagt reine Leistungssteigerung, da man damit wohl kaum etwas machen kann, was man nicht auch schon vorher machen konnte, nur halt deutlich effizienter.

  • Also die Auflösungs-Inflation finde ich bescheuert. Da hängt dann im Wohnzimmer ein die ganze Wand einnehmender Hirnabsauger, aber davon muss sieben Meter abgerückt werden, weil sich sonst das Geschehen an den Rändern nicht registrieren lässt. Da halte ich einen subjektiven Qualitätsvorteil vor einem nur die halbe Wand einnehmenden Absauger in drei Meter Entfernung für fraglich.

    Eher im Gegenteil: Wenn die Auflösung was bringen soll, muss man eigentlich sogar näher hin. Bei einem völlig veralteten und winzigen 42 Zoll FullHD darf man maximal 3 Meter weit weg sitzen, sonst tut's ein 720p Gerät und man würde keinen Unterschied sehen. Bei 4K ist das noch schlimmer.

    Die Berechnungsgrundlage findet sich sicher irgendwo, ich hatte die auch mal, aber momentan wirklich nicht zur Hand.

    Grundsätzlich gebe ich Dir recht: Auflösungs- und Größeninflation. Aber nun ja ... Lagerfeuer und Höhle haben auch mal gereicht, bis jemand was besseres erfunden hatte. Danach hat's halt nicht mehr gereicht.

  • Ja, bei gleichbleibender Größe und Abstand wird mit der Auflösung die Qualität besser, aber mit höherer Auflösung werden die Displays auch größer (am Computer schon deshalb, weil sonst die Schrift zu winzig würde), und ab einer bestimmten Breite muss eben abgerückt werden, um noch (ohne den Kopf drehen zu müssen) etwas an den Rändern zu sehen.


    Ich bin auch bis heute kein Freund des Breitwandformats, nicht beim TV und erst recht nicht am Computer. Meines Erachtens war das eine Masche, um den Leuten trotz weitgehender Marktsättigung wieder in großem Maßstab neue Displays aufschwatzen zu können, was im Übrigen auch eine üble Ressourcenverschwendung und Umweltbelastung bedeutete.


    Im TV sind dargestellte Menschen die wichtigsten Bildelemente, und die erstrecken sich eher vertikal als horizontal (auch Gesichter in Nahaufnahme). Am Computer nutzen etwa Webseiten breite Formate selten aus, zu lange Textzeilen wären auch schlecht für die Lesbarkeit. Oft klebt dann die Webseite in der Mitte und links und rechts davon sind breite leere Streifen.

  • Ja, bei gleichbleibender Größe und Abstand wird mit der Auflösung die Qualität besser, aber mit höherer Auflösung werden die Displays auch größer (am Computer schon deshalb, weil sonst die Schrift zu winzig würde), und ab einer bestimmten Breite muss eben abgerückt werden, um noch (ohne den Kopf drehen zu müssen) etwas an den Rändern zu sehen.


    Ich bin auch bis heute kein Freund des Breitwandformats, nicht beim TV und erst recht nicht am Computer. Meines Erachtens war das eine Masche, um den Leuten trotz weitgehender Marktsättigung wieder in großem Maßstab neue Displays aufschwatzen zu können, was im Übrigen auch eine üble Ressourcenverschwendung und Umweltbelastung bedeutete.


    Im TV sind dargestellte Menschen die wichtigsten Bildelemente, und die erstrecken sich eher vertikal als horizontal (auch Gesichter in Nahaufnahme). Am Computer nutzen etwa Webseiten breite Formate selten aus, zu lange Textzeilen wären auch schlecht für die Lesbarkeit. Oft klebt dann die Webseite in der Mitte und links und rechts davon sind breite leere Streifen.

    Nix leere Streifen.

    Werbebanner um Produkte zu pushen die keiner braucht...^^

  • Ja, bei gleichbleibender Größe und Abstand wird mit der Auflösung die Qualität besser, aber mit höherer Auflösung werden die Displays auch größer (am Computer schon deshalb, weil sonst die Schrift zu winzig würde), und ab einer bestimmten Breite muss eben abgerückt werden, um noch (ohne den Kopf drehen zu müssen) etwas an den Rändern zu sehen.


    Ich bin auch bis heute kein Freund des Breitwandformats, nicht beim TV und erst recht nicht am Computer. Meines Erachtens war das eine Masche, um den Leuten trotz weitgehender Marktsättigung wieder in großem Maßstab neue Displays aufschwatzen zu können, was im Übrigen auch eine üble Ressourcenverschwendung und Umweltbelastung bedeutete.


    Im TV sind dargestellte Menschen die wichtigsten Bildelemente, und die erstrecken sich eher vertikal als horizontal (auch Gesichter in Nahaufnahme). Am Computer nutzen etwa Webseiten breite Formate selten aus, zu lange Textzeilen wären auch schlecht für die Lesbarkeit. Oft klebt dann die Webseite in der Mitte und links und rechts davon sind breite leere Streifen.

    Tja ... im Grunde richtig. Aber ich darf an die legendären Nahaufnahmen der Augen von verschiedenen Westernhelden aus Sergio Leones Westernopern erinnern, die im Breitwandformat einfach enorm gut wirken. Denke an die Nahaufnahme der stahlblauen Augen von Charles Bronson in Once Upon a Time in the West. Oder an die endlos weiten Landschaften des Westens in der Gegend von Almeria. Tja. ... für Filme ist 16:9 ein besserer Kompromiss als 4:3 ... es ist ein Kompromiss, da gebe ich Dir recht, aber es ist immerhin ein besserer Kompromiss. Für Sitcoms ist die alte Röhre ausreichend, das stimmt.

    Zu blöd, dass Sony damals bei "Hör mal wer da hämmert" mit diesen neuartigen Videokameras protzen wollten, so bleibt uns ein HD-Remaster verwehrt (oder erspart, je nach Betrachtungsweise), in dem man die Schrift auf den Binford-Tools noch besser hätte sehen können. Denn: "Remember: If it doesn't say Binford on it ... somebody else probably makes it."


    Fortschritt oder nicht ... das ist und bleibt die Frage. Ganz ehrlich? Ich will die alte 4:3 Röhre nicht zurück, nichtmal als Sony Trinitron.

  • Absauger

    8o

    den Stift eingeführt

    :thumbsup:

    Andere stöpseln

    :D

    Scheint ein interessanter thread zu sein, muss ich doch gleich mal auf Seite eins starten und nachlesen.

  • Ich halte inzwischen 16:10 fuer das optimale Format. Es ist nah am goldenen Schnitt, also auch aesthetisch undiskutabel. Gerade wenns ums Fernsehen geht, da moechte man ja nicht nur Nachrichtensprecher sehen, sondern auch Filme oder Unterhaltungssendungen. Da ist dann ein aesthethisch ansprechendes Format durchaus erwuenscht, und unsere Augen sind ja auch nebeneinander, daher haben wir von Natur aus ein breites Blickfeld. 16:9 ist aber schon einen Schritt zu weit und entfernt sich vom goldenen Schnitt schon wieder. Zu 4:3 wuerde ich aber selbst am PC nicht mehr zurueck wollen (da nutze ich ebenfalls 16:10). Auch der C64 hat rechnerisch eigentlich 16:10 (320:200), wird aber auf PAL und NTSC entsprechend schmaler dargestellt.


    Am Browser habe ich meine Tabs in einer Spalte auf der rechten Bildschirmseite, dadurch kann ich alle Tab-Beschriftungen bequem lesen und trotzdem eine Menge Tabs gleichzeitig offen haben, und mich stoert somit auch die Leerflaeche links und rechts einer Website nicht mehr so sehr.

  • Ich halte inzwischen 16:10 fuer das optimale Format. Es ist nah am goldenen Schnitt, also auch aesthetisch undiskutabel. Gerade wenns ums Fernsehen geht, da moechte man ja nicht nur Nachrichtensprecher sehen, sondern auch Filme oder Unterhaltungssendungen. Da ist dann ein aesthethisch ansprechendes Format durchaus erwuenscht. 16:9 ist aber schon einen Schritt zu weit. Zu 4:3 wuerde ich aber selbst am PC nicht mehr zurueck wollen. Auch der C64 hat rechnerisch eigentlich 16:10 (320:200), wird aber auf PAL und NTSC entsprechend schmaler dargestellt.


    Am Browser habe ich meine Tabs in einer Spalte auf der rechten Bildschirmseite, dadurch kann ich alle Tab-Beschriftungen bequem lesen und trotzdem eine Menge Tabs gleichzeitig offen haben, und mich stoert somit auch die Leerflaeche links und rechts einer Website nicht mehr so sehr.

    Rein von den Pixeln her schon, aber das ist wie bei vielen LucasArts Adventures: Die Graphik war dann absichtlich auf das "falsche" Seitenformat hingerechnet, damit es passt.


    Ob 16:10 so viel besser ist, da hätt ich meine Zweifel. Gerade alte Filme sind oft noch breiter als 16:9 und dann würden die Balken wieder breiter werden müssen. Fänd ich jetzt auch nicht gut. Es ist alles ein Kompromiss.
    In der Arbeit hab ich noch zwei 16:10 Displays von Lenovo, die sind ganz schön. Sicher besser zum Arbeiten geeigntet als 16:9er, das ist wahr.

  • Sobald man etwas "erschaffen" will, ist man nach wie vor auf einen Desktop-PC angewiesen. Egal ob das Software, Videos, Musik oder sonstwas ist.

    Das würde ich heutzutage nicht mehr so unterschreiben. Das mag in der Anfangszeit der Mobil-Geräte (Smartphone und Tablets) so gewesen sein – aber das stimmt einfach nicht mehr. Es gibt viele Leute, die ihre, gerade auch mit dem Smartphone aufgenommenen, Videos dort auch gleich schneiden. Auf dem Desktop-PC kannst du ja noch nicht einmal ohne Zusatzgeräte Videos drehen oder Fotos schießen. Ähnliches bei Musik – am Beispiel Apple GarageBand: Natürlich ist die Desktop-DAW-Version leistungsfähiger, was Anzahl der Spuren und die Bildschirmgröße angeht. Dafür besticht die iPhone/iPad-Version mit der ERZEUGUNG von Musik, weil ich über Multitouch viele Instrumente (Keyboard mit dynamischem Anschlag, Gitarre, Schlagzeug ...) simuliert einspielen kann (im Netzwerk sogar als Live-Session), für die ich bei der Desktop-Version wieder Zusatzgeräte/Instrumente benötige.


    Also, vieles wird heute schon mit mobilen Geräten "erschaffen" – Fotos, Videos, Musik, Texte sowieso (notfalls mit externem Keyboard oder Sprache). Das ist alles nicht mehr Desktop-PC-Exklusiv – und manches sogar mit dem Desktop-PC umständlicher. Programmierung ist da sicherlich noch eine kleine Ausnahme (die nur einen Bruchteil der User interessiert) – aber auch da gibt es erste Schritte weg vom "PC". Mit Swift Playgrounds 4 kann man z.B. auf dem iPad sehr gut programmieren (lernen). Für Android wird es ähnliches geben. Noch nicht auf Desktop-Niveau – aber das ist wahrscheinlich auch nur eine Frage der Zeit.


    Ich weiß, du willst dein Argument nicht einfach aufgeben – aber meines Erachtens verrennst du dich da etwas. Und wenn du es nur an den Eingabe-Geräten festmachen willst: Keyboard (und Maus) gibt es auch für Mobil-Geräte/Systeme – auch das ist nicht mehr Desktop-only. Dazu kommt, dass viels auch einfach Gewöhnung und Gewohnheit ist. Die jetzt junge Generation kommt ja oft viel früher mit mobilen Touch-Systemen in Kontakt als mit klassischen PCs – auch das wird in Zukunft einen Einfluss auf die PC-Nutzung haben.


    Natürlich wird es immer klassische Desktop-PCs geben – wahrscheinlich aber (langfristig) eher so als Workstation für bestimmte Aufgaben – nicht als das Allround-Gerät für ALLES und jeden. Der Homecomputer der Neuzeit ist eher das Smartphone oder Tablet oder UltraBook, nicht mehr der klassische Desktop-Computer mit (ausschließlich) externen Bildschirmen und immer freien Steckkarten-Slots.


    ----


    Mit den aufgestellten Axiomen des Ausgangs-Postings kann ich persönlich nichts anfangen – da sind mir zu viel Wenns und Abers und alternative Realitäten eingebaut, als dass man da zu einem sinnvollen Ergebnis kommen könnte, welches irgendeine Relevanz für unser Leben hätte. Ich würde immer so viel Technik wie nötig und so wenig wie möglich nutzen. ;)

  • Sehe ich anders. Ich LIEBE ultrawide.

    Auf Arbeit bis vor kurzen (und ich hoffe bald wieder) einen 32:9 genutzt, und privat einen kleinen 21:9. Und das natürlich bei nur ca 50 cm Abstand. So genial damit zu arbeiten. Normalerweise haben wir alle zwei 16:9 Monitore nebeneinander (auf einem einzigen zu arbeiten geht ja überhaupt nicht mehr) und die ersetzt so ein 32:9 einfach genial. Für die selbe Breite wäre ein durchgehender 16:9er unendlich hoch, und das ist dann durchaus was, was nicht mehr schön ist. Und nein, auch Film tendiert seit jeher zu ultrawide (war ja auch das erste UW Format). Eben weil, sowohl im TV, als auch im Film, die Interaktion von Menschen miteinander und ihrer Umwelt das wichtigste ist. Und das ist IMMER horizontal orientiert. Das menschliche Gesichtsfeld ist nun mal ultrawide. Der Säbelzahntiger konnte halt von 360° horizontal, aber eben nur wenige Grad vertikal kommen. Daher von jeher der Drang sich diesem Gesichtsfeld anzunähern. Cinemascope und co. gibt es seit den 50ern, mit Seitenverhältnissen von 2,55:1 Alleine schon: https://3.bp.blogspot.com/-QiR…0/gunmanswalkbrothers.jpg Das braucht ein wide-format.


    Und natürlich nutzt man diese Monitore nicht, um durchgehende Textzeilen anzuzeigen. Genauso wenig, wie Zeitungen auf einer aufgeklappten Seite durchlaufende Zeilen haben. Wenn man ein Paper schreibt und mehrere Quellen offen hat, dazu seinen Text. Oder 3D Modellierung oder Bildbearbeitung. Jeweils hat man ausreichend Platz für Werkzeuge und Inhalte.

    Vom zocken ganz zu schweigen. Najezu jedes Genre profitiert von mehr horizontalem Sichtfeld.

  • Ich weiß, du willst dein Argument nicht einfach aufgeben – aber meines Erachtens verrennst du dich da etwas.

    Keine Sorge, ich habe keine Aktien oder sowas ;)

    Es ist halt meine Meinung und Beobachtung, natuerlich kann das in 10 Jahren anders aussehen.


    Ich wuerde davon ausgehen, dass die meisten bekannten YouTuber z.B. ihre Videos noch am PC/Laptop schneiden. Mag sein, dass das in Zeiten von TikTok vom Smartphone abgeloest wird, weil der Anspruch an den Schnitt evtl. sinkt. Von daher gut moeglich, dass Generation TikTok das anders macht als Generation YouTube. Aber dazu wuerden mich erst noch Zahlen interessieren, bevor ich wirklich "glaube", dass das heute anders ist als ich sage.


    Und natuerlich kann man an ein Tablet auch Tastatur und Maus anschliessen, die Frage ist dann aber, ob das dann nicht eigentlich "Desktop" ist. Mir geht es ja nicht um die Leistungsklasse oder Geraeteklasse oder sowas, also dass Tablets/Smartphones nicht genug Power haben oder so, ich rede rein von der Bedienung. Und da glaube ich eben, dass man fuer ernsthaftes Arbeiten nach wie vor lieber an einem Geraet mit Tastatur und Maus sitzt und am besten auch einem ordentlich grossen Bildschirm, als dass man das alles aufm Sofa mit Touch-Bedienung erledigt.

  • (Als Semi-Antwort auf das Posting von Retrofan

    Wie wenig Technik man nutzen kann, hängt sehr stark davon ab, in welchem Zeitalter man lebt und welche täglichen Anforderungen man hat. Beispiel Arbeitswelt: Wenn man heute HomeOffice machen möchte und man hat nur irgendwas 20 Jahre altes, wird's schwierig bis unmögich (und, ja, ich weiß, eigentlich sollte der Arbeitgeber das Zeug bereitstellen ... sollte; macht nicht jeder).


    Ob es "immer"(TM) Desktops geben wird, würde ich in Zweifel ziehen. Irgendwann ist das Thema durch, wenn es etwas neues und besseres gibt.


    Ich hab z.B. gar keinen klassischen Desktop mehr. Mir tun es Notebooks. Tablets finde ich hingegen maximal nutzlos. Aber so ist halt jeder anders.

  • Natürlich wird es immer klassische Desktop-PCs geben – wahrscheinlich aber (langfristig) eher so als Workstation für bestimmte Aufgaben – nicht als das Allround-Gerät für ALLES und jeden. Der Homecomputer der Neuzeit ist eher das Smartphone oder Tablet oder UltraBook, nicht mehr der klassische Desktop-Computer mit (ausschließlich) externen Bildschirmen und immer freien Steckkarten-Slots.

    Das ist ja grade das "wenn man etwas erschaffen will". Niemand schneidet professionell auf einem Tablet. Programme wie Davinci Resolve gibt es nicht mal für mobilen Kram.


    Ich kenne aus meinem Umfeld niemanden, der auf mobil setzt. Selbst Laptops eher weniger. Zu leistungsschwach, zu teuer, nicht aufrüstbar. Purer Wegwerfmist. Selbst Mom (70+) will außer mal ein paar Bilder gucken nichts auf dem Tablet machen, weil ihr der PC ihr einfach besser liegt

  • Welches System reicht denn für Porno?

    Wie immer das analoge System.... :bgdev

    "Gefühlsecht" ist das Stichwort! :thumbsup: