Posts by Kalbos

    Ich bin kein Apple Mensch.

    Welches sind denn Wege elegant alle Bilder von iCloud Fotos auf einen externen Datenträger zu sichern, bzw. in Abständen neue Sicherungen auf einen externen Datenträger zu erstellen


    Dankeschön.

    Ja, er macht gute Songs. Hat dabei einen tollen Stil.
    Er macht das mit der älteren Version des RastaTackers, deshalb kann der Song auch nur das was der Tracker bereit stellt.

    Was man da sieht ist die Mischung aller 4 Tonkanälen, die Frequenzen der einzelnen Stimmen mischen sich. Das sieht man auch in dem anderen Beispiel oben.

    Ferner hat der Pokey einen Flanken addierer und eine distorischen Funktion. Letztere kennst du bestimmt noch aus dem Basic, es war der dritte Parameter des Sound Befehls.

    Wenn man auf die Oszilloskopausgabe achtet, wenn nur wenige oder eine einzelne Stimme zu hören ist, sieht man die Recheckform auch.

    Die würde man besser erkennen, wenn jede Stimme einen Verlauf im Video hätte.

    Das sind experimentelle Dinge, Seiteneffekte für die der Pokey niemals gebaut wurde.

    Durch solche Hacks bleibt doch unser Hobby auch nach 40 Jahren interessant.

    Total, ich finde die auch klasse.
    Allerdings muss man das einordnen, um das Ergebnis zu würdigen.

    Am Ende sagt jemand, dass klingt aber auf dem SID besser... Natürlich klingt es auf dem SID besser, aber das es am Atari überhaupt so klingt ist großartig.

    Ich höre sehr gerne die Pokey Titel und freue mich, wenn mal wieder etwas neues heraus gefunden wurde.

    Das sind experimentelle Dinge, Seiteneffekte für die der Pokey niemals gebaut wurde.

    Das kenne ich alles, habe das von Anfang an verfolgt. Es ist auch nicht 100% steuerbar und nicht universal verwendbar. Hacks.

    Es sind immer nur 3,5 Oktaven und die Rechteckwellen sieht man ja schön. Vinscool ist ja der Pokey Soundmensch überhaupt.
    Die Frequenzverläufe sind auf dem PC berechnet, die Musik ist auf einem PC Progamm erstellt, welches um allerhand trickreicher Effekte durch unkonventionelle Parameter gesteuert werden, um die Flanken der Schwingungen zu verändern und ausserhalb jedem Chip Designs liegen, die Pokey Daten werden dann in einer komprimierten Datei gespeichert und die Playerroutine nimmt dann einfach nur die jeweils entpackten Daten und sendet diese an den Pokey. Deswegen braucht der Player selbst so wenig Rechenleistung. Technisch ist das so das beste was geht. Aber weit jenseits dessen, was man damals so konnte. Die Leute damals würden beim debuggen des gepackten Files und dem Player vermutlich nicht mal erkennen, wie das überhaupt so richtig funktioniert. Douglas Neubauer hätte bestimmt Tränen in den Augen gehabt, was so mit seinem Pokey geht. Seine auch von ihm programmieren Spiele auf dem Atari 8Bit hatten jedenfalls keine Musik.


    Ich denke, wir werden in den nächsten Jahren noch tolle Sachen vom C64 und gerade vom Atari 8Bit sehen, wenn KIs den ganze aufwändige Zeugs codieren und designen, alles um die Schwächen drum herum, was viel zu komplex fürs händische programmieren wäre.

    Guten Morgen,


    das ist aber ein Soundsample. Bzw. ein prozedurales Soundsample.

    Theoretisch kannst du alles Töne bis zur Grenze der Hälfte der Samplingfrequenz wiedergeben. Das Problem dabei ist, dass der Pokey kein Sampleplayer ist,
    die CPU muss das alles zum Pokey schieben. Das ist keine originäre Funktion des Pokey, er ist kein Sampleplayer und er ist auch nicht DMA fähig. Nicht der Pokey macht die Musik, es ist die CPU.
    Es frisst die komplette Rechenleistung. Man hat in dem Demo schon den Bildschirm abgeschaltet, um mehr Rechenleistung überhaupt zu haben, die

    Frequenzkurve wird mit Player Missile Grafik dargestellt, die auch bei ausgeschalteten Bildschirm angezeigt wird und in jeder Zeile entsprechen verschoben wird.


    Das ist ein nettes Demo, aber es zeigt was so geht.
    Interessanter Weise, braucht man für solche Art von Musik den Pokey gar nicht. Der Atari hat ja auch noch einen Tastatur Beeper, der ist extra und liegt seit dem XL auch auf dem Audiokanal.
    Musik ohne Pokey, der Sound wird über den GTIA ausgegeben.

    Dann sind es aber keine 4 Stimmen mehr und eine durchgängige Tonleiter hast Du auch nicht, selbst wenn Du den Pokey mit 15Khz oder 64kHz synchronisierst. Abgesehen davon, dass du bei Synchronisation von 15 KHz eh kaum noch Töne auf der Tonleiter überhaupt triffst. Das sind keine wirklichen Optionen. Wenn du per Software eine Hüllkurve nachbildest, ändert dass die Schwingung nicht. Es ist immer noch eine Rechteckwelle, hallt eine die einem Lautstärkeverlauf der Hüllkurve folgt.

    Der Pokey ist einfach nicht für Musik gebaut, das war garantiert nicht das Ziel als dieser Baustein entwickelt wurde.


    "4 Stimmen bei 3,5 Oktaven." Das ist schlicht eine irreführende Werbung gewesen. Entweder hat er 4 Stimmen, dann kann er 3,5 Oktaven nicht auflösen, oder(!) er fasst jeweils zwei Stimmen zusammen und hat dann die nötige Auflösung.


    Das sieht auf dem Papier toll aus, aber der Pokey ist da ungeheuer eingeschränkt und hält seine Versprechen nicht. Darum ging es, nicht um die Features, sondern um die Einschränkungen dieser Features die nicht auf dem Papier standen. Diese hat der C64 viel weniger. Er ist das realistischere Angebot gewesen, natürlich auch die spätere Entwicklung.

    Der SID hat drei Stimmen und 7 Oktaven und die kann er dann auch, ohne Einschränkung und eine Menge mehr dazu, da liegen Welten zwischen.


    Solch einen Vergleich kann man nur fair beginnen, wenn man sagt, dass der Pokey für etwas ganz anderes, nämlich Geräusche, entwickelt wurde und dass er mehr als eine Generation früher zum SID da war.

    Umso schöner ist es doch, wenn es ansprechende Musik vom Pokey gibt. Dass jemand kreativ genug ist, um die ganzen kleinen Herausforderungen drum rum zu bauen.




    Stell dir mal vor, Du bist da im Jahr 1983 und überlegst, ob Du einen Commodore 64 oder Atari 800XL zum Musik machen kaufst... Schaust auf das Datenblatt der Recher. Da wirst Du mit dem Atari 800XL aber ganz schön enttäuscht gewesen sein, wenn du dann mal einen C64 gehört hast.


    Sowas finde ich natürlich auch sehr geil. Aber für sowas ist der Pokey eigentlich nicht gebaut. Das macht es ja ganz besonders toll.

    Warum 160 Pixel?

    Sowas gibt es ja auch für den Atari 8Bit, aber meistens wird das genutzt um die Bildschirmausgabe ganz abzuschalten. Dann hat man Rechenleistung und kann trotzdem noch, sehr rudimentär noch was darstellen. Oftmals für Vektorgrafik, in welcher die PM pro Zeile verzerrt werden.

    Das ist übrigens ein interessanter Unterschied im Spiel Bruce Lee der mir aufgefallen ist und zeigt, wie schon die ersten C64 Spiele die vom Atari umgesetzt wurden, den Atari eigentlich schon trickreich überfuhren, während der C64 das locker aus der Hüfte schüttelte.

    3.jpg


    Das ist das Bruce Lee Sprite vom Atari. Wie ist das gemacht, der Player hat ja beim Atari nur 8 Bit in einer Farbe?
    Es sind zwei Player überlagert, also 2 Sprites übereinander. Der hautfarbene Player hat die normale Breite, der schwarze Player die doppelte Breite.
    Beide Player sind 8 Bit breit. Weil der hautfarbene Player die normale Auflösung hat, scheint der schwarze Player durch. Damit sind die schwarzen Pixel der Haare, Augen und Hand Bauch umgesetzt.
    Der Effekt ist aber, dass der Fuß von Bruce Lee am gestreckten Bein sehr lang ist, weil es ja ein Player Pixel ist.

    Die Ferse des zweiten Fuß ist in Hautfarbe, weil er vom Player 1 stammt, der gerade noch in der breite die angewinkelten Ferse erreicht.


    Beim C64 hat man einfach Multicolor Sprites verwendet. Damit hat der Hacken die richtige Farbe und der Fuß die richtige Länge.


    Der Effekt dieser Verwendung ist beim Atari aber, dass es ja drei Figuren gibt. Bruce Lee der zwei Player benötigt und Yamo der zwei Player benötigt, weil er ja auch treten kann. Dann bleibt nur noch ein Player übrig und deshalb ist der Ninja im Spiel nur noch einfarbig schwarz und kann demnach auch nicht treten. Gibt ja kein Player mehr dafür.

    Diese Beschränkung des Atari ist super trickreich in der Spiel Bruce Lee eingebaut worden. Wäre Bruce Lee originär auf der C64 entstanden wäre bestimmt die Spielmechanik im Detail eine andere und auf dem Atari gar nicht mehr umsetzbar.

    Bruce Lee ist ein absolut auf den Atari Computer zugeschnittenes Spiel, grafisch aber auch in der Spielmechanik und es sieht auf dem ersten Blick gar nicht so aus.

    spannend was alles mit den Sprites so geht. Also nicht das vergrößern, sondern diese relativ große Spielfläche aus Sprites zu bauen.

    Beim Atari hat die gröbere Auflösung auch noch den Vorteil, dass der Bildaufbau auch nicht die CPU so lange blockiert und mehr Rechenleistung zur Verfügung steht.

    Ich denke es ist keine Frage der Funktionen, sondern der Einschränkungen dieser Funktionen.

    Die Featurelisten sind voll, aber die Einschränkungen sieht man nicht auf dem ersten Blick.


    Im Prinzip kann man guten Gewissens behaupten, dass der Atari XL 128 Farben gleichzeitig in höchster Auflösung darstellen kann. Dass das dann eine einfarbige Zeile ist und das Gerät nicht mal in der Lage ist einen andersfarbigen hochauflösenden Pixel in der selben Zeile darzustellen steht dann nirgendwo.

    Der Atari hat 8 Sprites, wie der C64 auch. Dass aber die Hälfte davon gerade mal 2 Bit breit ist steht auch erstmal nicht da.

    Der Atari hat 4 Stimmen, dass diese aber nur rechteckmoduliert sind, nur 3,5 Oktaven und über die 3,5 Oktaven nur in 256 Stufen auflösen können steht auch nicht da.


    Das ist kein Bashing, die Spiele mit denen der C64 anfing, damit hörte der Atari 8bit auf. Der Atari Computer ist eben eine Entwicklung aus den 70er Jahren, die ihren Vorläufer im Atari VCS hatte und dafür ist das Gerät phänomenal.

    Der C64 ist eine Entwicklung aus den frühen 80er Jahren. In der Zeit hat Apple die Lisa auf den Markt gebracht. Eigentlich ist der C64 ein viel zu später 8Bit Computer.


    Das RoF und Yoomp auf dem Atari etwas besser sind, liegt ja vor allen daran, dass man bei beiden Games eine eigenart der Atari 8bit Computer genutzt hat. Nämlich, dass diese über Grafikmodi niedriger Auflösung verfügen. Diese sind mal zum Speicher sparen eingeführt worden und haben in beiden Spielen den Vorteil, dass dadurch die Hälfte weniger Pixel berechnet werden müssen. Das ist sicherlich ein Vorteil der Atari Kisten, gibt ja auch noch weitere.

    Der C64 ist halt genau mit der Vorlage der Atari 8Bit (und weiterer) entwickelt worden. Alle sichtlichen Vorteile der Kiste wurden kopiert, an den niedrigen Auflösungen hat man damals wohl keinen Nutzen gesehen.

    Die Verwirrung ist da maximal, weil es ja auch ein MS-DOS ist. Es gibt M/T MS-DOS 4.0 und MS-DOS 4.0. Scheinbar gibt es auch M/T MS-DOS 4.01 und MS-DOS 4.01.
    Das M/T MS-DOS 4.0 ist wie hier erwähnt auch European MS-DOS 4.0 genannt worden, ob das auch auf die Version 4.01 zutrifft kann ich nicht sagen.

    Edit: Korrekt mit / zwischen M und T

    Auf dem Video oben sieht man das Multitasking von 4.01, so steht es jedenfalls da. Wundert mich auch, ich dachte das das preäemtive MT DOS 4.0 mangels Nachfrage nicht weiter entwickelt wurde.

    Ich würde mal denken, dass da eine Gnome Extension mal wieder fehlerhaft geforkt mitgeliefert wurde.

    Wenn es die Spezialisten vom Ubuntu-Team nicht schaffen, den Desktop und das Fenster-Handling ordentlich zu konfiguieren, dann gehe ich nicht davon aus, dass ich das selbst beheben kann. Na ja. 24.04 ist ja noch taufrisch. Will mal hoffen, dass die Probleme mit zukünftigen Updates allmählich weggebügelt werden.


    Im Moment reicht's zum Leben. Und Probleme gibt's ja immer. Wer hat schon jemals das perfekte Betriebssystem gehabt?

    Die Spezialisten des Ubuntu Teams forken Gnome Extensions.

    Ubuntu soll das Look and Feel behalten, Ubuntu identifiziert Gnome Extensions die eine entsprechende Funktionalität bieten und Forken die. Das muss Ubuntu tun, denn die Extensions werden ja klein klein entwickelt.

    Das doofe und tatsächlich mehrmals passierte ist, dass Fehler in der Quell Extension bekannt werden, dort inzwischen lange behoben sind und die Ubuntu Forks immer noch im alten Stand sind.


    Jeder Fork splittet ja nicht nur die Entwicklung auf, sie splittet ja auch den Service auf.

    Das Prinzip das da für Ubuntu Gnome gewählt wurde ist im Kern problematisch und eigentlich total unnötig.

    Gnome basiert halt auf Extensions, quasi ist alles höhere eine Extension.

    Wenn man da so möchte, sollte man entweder mit den jeweiligen Extension Entwicklern zusammen arbeiten, oder was eigenes mit der nötigen Energie tun.

    Da sind bekannte Fehlerkorrekturen über Jahre nicht übernommen worden.


    Deshalb wundert mich das Verhalten das du bei 24.04 beschreibst nicht wirklich. Aber der Fehler scheint ja auffälliger

    Verstehe den Artikel nicht.


    Erst wird erzählt, dass es nicht das System ist, wie es ursprünglich mal gedacht war und danach sieht man die Demonstration des MTs?


    Irgendwie fehlt mir da der Sinn, wie war es denn gedacht und wie wurde es dann gemacht?

    Das glaube ich nicht. Denn es geht ja doch sehr mit Kompatibilitäten einher.
    Mint ist da wirklich sehr weit zurück. Wenn da nicht auf die Tube gedrückt wird, kommt am Tag X was wichtig ist und nicht mehr läuft.

    Die Leute benutzen ja Mint, gerade weil es einfach und pragmatisch ist.


    Ich finde, die größte Schwäche dieser Distribution.

    Es ist viel einfacher zu verwalten, weil es selbst viel einfacher ist. Da es den kompletten Pfad selbst bedient ist es auch ungleich sicherer vor Schadsoftware, es hat deutlich höhere Leistung und alles was Du so an modernen Technologien hast also Vulkan, EGL etc viel einfacher und sauberer zu integrieren.

    Wayland ist wie ein Zeitsprung zum XServer.


    Das Problem bei Wayland ist nicht nur der Desktop, es müssen auch die gebündelten Anwendungen modernisiert werden. Du kannst halt dann keinen veralteten Filemanager dran bundeln, usw.