Posts by Unseen

    Warum sollte Apple das tun? Sie haben weder Interesse daran, andere Betriebssysteme nativ auf ihrer Hardware laufen zu lassen, noch wollen sie ihren SoC (ohne Mac) unters Volk bringen. Es gibt also keinen Grund, irgendwelche Infos herauszugeben – sie wollen ja nichts von anderen.

    Und warum ermöglicht Apple es dann in macOS 11.2, nicht-macOS-Kernel auf einem M1-System zu booten? (Quelle) Sogar mit Doku in den manpages? (Quelle)

    In meinem Firefox ist plötzlich eine "Weitere Lesezeichen" Auswahl in der Favoritenleiste aufgetaucht.

    Gestern war das nicht da. Hab ich das versehentlich eingeschaltet? Wenn ja, wie geht das wieder weg?

    Mozilla hat ein Feature zu früh freigeschaltet, das sollte erst mit Firefox 85 erscheinen und erst in der Version kann man das ohne about:config-Umwege wieder entfernen.


    (Quelle: https://www.zdnet.com/article/…arks-button-from-firefox/ )

    Einmal Bitreplikation via Carry...

    Und nur weil ein Monitor eine DVI-Buchse hat heisst das noch lange nicht, daß da kein Ton mit drübergehen kann.

    Das geht aber nur, wenn der Chip hinter der Buchse auch HDMI versteht, was bei dem Belinea aus dem Eingangsposting vermutlich nicht der Fall ist.


    Der Ton wird bei HDMI in den Austastlücken des Bildsignals übertragen, für einen DVI-Decoder sehen die Datenpakete wie ein fehlerhaftes Signal aus. Da HDMI ausserdem noch ein paar weitere kleine Modifikationen am Signal vornimmt (Guardbands am Wechsel von Austastlücke zu Bildsignal) wird ein reiner DVI-Decoder typischerweise gar nichts anzeigen, wenn er mit einem HDMI-Signal gefüttert wird.


    In der Praxis merkt man davon als Anwender aber wenig, da HDMI-Sender die EDID-Daten des Displays auslesen und bei Fehlen des "unterstützt diese HDMI-Features"-Blocks alle HDMI-Zusatzfeatures abschalten. Beim RetroTINK 2x (und zB auch bei GCVideo) ist das aber nicht implementiert und der Anwender muss bei einem reinen DVI-Monitor manuell umschalten.

    Ja, das ist irre, liegt aber daran, dass bei modernen TVs die Anschlüsse für die S-Video-Signale nicht angeschlossen sind.

    Nicht jeder SCART-Anschluss ist S-Video-fähig, das war auch schon bei Röhrenfernsehern früher so. Es gibt bei SCART keine extra für S-Video vorgesehenen Pins, S-Video über SCART ist eine Alternativbelegung, die das Chroma-Signal auf einen der ursprünglich für RGB vorgesehenen Pins legt.


    Was gebraucht wird ist C128-to-HDMI! (Wobei hier das Problem der vielen hochauflösenden Modi des VDC besteht, da hat ein Converter ganz schön drann zu knacken, denn das Bild muss ja wieder 3:4 sein...)

    Variante 1: Ignorieren und hoffen, dass man das Display zur 4:3-Darstellung überreden kann

    Variante 2: Hochskalieren in eine verbreitete(re) Zielauflösung mit quadratischen Pixeln

    Variante 3: Nicht-Standard-VDC-Modi als unsupported deklarieren ;)

    Woran liegt dieser - wirklich dramatische - Unterschied?

    Ich tippe auf ein Kabel mit getrenntem Chroma/Luma an einem Anschluss, der Composite erwartet und versucht, schwache Farbträger-Übersprecher im Lumasignal zu decodieren. - das starke Farbrauschen im "Video2Scart TV"-Bild spricht deutlich dafür.


    Ist mit "Video2Scart" ein Adapterstecker von 3x Cinch (Gelb/Rot/Weiss) auf SCART gemeint?

    Ich habe mal nachgeforscht, wäre DAS was.....?

    Dem Datenblatt nach hat ein Precision T3500 einen X58-Chipsatz, der ist für CPUs mit Nehalem-Mikroarchitektur gedacht, also Core i7 der allerersten Generation (2008). Klingt nicht so empfehlenswert.

    Grafikkarten habe ich noch zwei hier von Nvidia mit 512MB und eine ATi mit 256MB. Die sollten für diese Spiele reichen.

    Bei dem eBay-Angebot ist es egal weil die CPU da keinen Grafikteil enthält, aber bei anderen Kisten solltest du da auf jeden Fall benchmarken (oder nachschauen), ob die nicht langsamer sind als der in die CPU integrierte Grafikteil. IIRC war zB eine Radeon 5450 mit 1GB in einem System mit i7-6700 laut 3DMark ein massives Downgrade.

    Und hier wird genau das beschrieben, was ja meine Ausgangsfrage war: Verändert Apples M1 die gesamte Branche oder bleibt das ein Apple-only-Ding?

    Apple M1 is the boost the Windows ecosystem needed: Qualcomm

    Qualcomm hat übrigens gerade bekanntgegeben, dass sie Nuvia aufkaufen. Das ist ein Startup, welches an der Entwicklung von besonders effizienten ARM-Cores arbeitet und unter anderem von Gerard Williams gegründet wurde, der bei Apple Chefarchitekt für alle CPU-Designs bis mindestens zum A13 war.

    [23:40] <groepaz> https://www.forum64.de/index.php?thread/32567-winvice-betas-zu-testen/&postID=1614467#post1614467

    [23:40] <groepaz> another binary without source

    [23:41] <groepaz> *sigh*

    Das könnte man als Reaktion u.a auf Apples neue 5nm-Chips verstehen.

    Oder als Reaktion darauf, dass Intel seit Jahren ihren 10nm-Prozess nicht vernünftig hinbekommt.



    Sollte Intel wirklich die Chip-Produktion ihrer wichtigsten CPUs (i3, i5, i7 ...) outsourcen, dann wäre das schon ein kleines IT-Erdbeben.

    Ich tippe eher auf die Chipsätze, die hat Intel mindestens bis zur 3x0-Generation noch teilweise in 22nm hergestellt, um mehr 14nm-Produktionskapazität für die CPUs nutzen zu können.

    Welche Art von SD-Karte ist es denn genau, die du verwendest? Es gibt ja die Arten SD, SDHC und SDXC und nicht alle werden von jedem Gerät unterstützt. Ist dein SD2IEC Gerät komptibel mit deinem speziell verwendeten Kartentyp (unabhängig von der Dateisystem-Formatierung)?

    Sinnlose Nebelkerze. Schon das allererste Release von sd2iec unterstützte sowohl SD- als auch SDHC-Karten. Bei SDXC hat sich im Vergleich zu SDHC nur das Default-Dateisystem geändert, nicht aber die Kommandos um die Karte anzusprechen und daher funktionieren die nach Umformatieren auch.