Hallo Besucher, der Thread wurde 1,7k mal aufgerufen und enthält 3 Antworten

letzter Beitrag von Stephan am

ZIP - Dateien "inneren Aufbau anschauen" - gibt es dafür ein Tool?

  • Hallo,
    zwar gibt es gemäss Wikipedia Webseiten die generell und allgemeingültig beschreiben, wie eine ZIP-Datei (die von mehreren Programmen erzeugt sein kann, u.a. PKZIP) "innen" aufgebaut ist. Möglicherweise oder wahrscheinlich steht auch in Addison-Wesleys "Großes Handbuch der Dateiformate" ein Kapitel darüber drin ....


    Mir geht es aber darum, in einzelne Dateien reinzuschauen - nicht nur ihr Inhaltsverzeichnis auflisten, das ist fast trivial, das können viele Tools - sondern die Huffman-codierten Bestandteile sichtbar machen, etc. ,
    Das was ich suche, gibt es laut "Tante Google" nicht!?


    Nämlich, ein Tool mit dem man z.b. in (wegen Übertragungsfehler, oder weil auf Uralt-Disketten befindlich) vermurkste PKZIP-Dateien "hineinschauen" kann und die Tabellen und Deflate-Informationen ansehen kann.
    Eine Art "File-Editor" oder "Deflate inspector" speziell für solche komprimierten Archive, mit denen man ähnlich einem Disk-Editor früherer Zeiten z.b. auch händische Reparaturen versuchen könnte, oder über den Aufbau von Dateien was lernen kann.


    Ich wüsste gar nicht, wie so ein Ding heisst um eine Suchmaschine damit zu füttern. Aber vielleicht gibt es sowas schon?
    Theoretisch könnte man mit Informationen über Deflate-Algorithmus sowas auch selber programmieren. wäre auch lehrreich - aber auch langwierig.


    Weiß jemand von euch, ob es so etwas schon gibt? danke für eure Beiträge :)

  • GenerationCBM: Das erscheint mir hoch gegriffen, und was die Templates angeht, ist es mit viel Handarbeit verbunden - da kann man eigentlich gleich den Output von DEBUG hernehmen ;-)
    Aber danke für deinen Beitrag!


    Falls du den Thread "Optimierungsgrad C64 Kernel / Basic" gelesen haben solltest , dort (oder in der thematischen Nähe) hatte ich die Idee ventiliert, das C64-BASIC-ROM mit einem Packer zu packen und aus dem Kompressionsgrad Rückschlüsse auf Optimierungsmöglichkeiten zu ziehen.Sprich, wenn der Packer 10% redundanz rausquetschen kann, lohnt es sich weniger, händisch nachzuoptimieren als wenn er 30% bringt.


    Das Tool, das es anscheinend noch nicht gibt, das aber diesem Thread hier den Namen "leiht", könnte bzw. sollte nun im Detail eine Handreichung geben, welche Teile eines Programms eine besonders niedrige "Code-Dichte" haben, und welche nicht. So dass sich ein Programmierer darauf gezielt konzentrieren könnte, dort nachzubessern oder bessere Algorithmen zu wählen.


    Um mögliche Ergebnisse vorwegzunehmen: die Code-Dichte die Bill Gates und seine Mitstreiter in den 70er Jahren erzielt haben, scheint recht hoch zu sein.