Hallo Besucher, der Thread wurde 119k mal aufgerufen und enthält 842 Antworten

letzter Beitrag von war64burnout am

Mein erstes voll synthetisches Nuvie Demo 2011

  • Hallo,


    warum vollsynthetisch? Nunja das Demo ist tatsächlich komplett aus meiner Feder, von mir erstellt und programmiert worden. Ich möchte mal beschreiben wie aufwändig die Herstellung war.


    Zu sehen ist ein Girlie welches in einer künstlichen Umgebung tanzt und die Kamera fährt im Kreis drum herum. Das ganze als Loop für den Nuvieplayer konvertiert.


    Programmierung am PC:


    Erstellen einer Gridsimulationseinheit unter OpenSim 0.7.1 (Ein Landschaftsimulator für virtuelle Welten kompiliert unter Mono und einer MySQL Datenbank für das Avatar Inventar) - selbst kompiliert und eingerichtet
    Die Gridsimulation auf eine virtuelle 32 Bit Ubuntu Server maschine portiert
    Dann per Terraforming die Landschaft im RAW Format eingerichtet und die Texturen auf die Gitter gelegt.


    Das Mädchen besteht aus einem Shape welches unter Maya hergestellt wurde und dann als Template in die OpenSim integriert wird
    Die Haut des Mädchens ist eine Textur im PNG Format basierend auf echten menschlichen Skins und auf das Template gelegt
    Die Kleidung besteht aus Sculpted Prims welche mit 3D Studio Max erstellt worden sind und sie trägt "New Rock Boots" ein bauchfreies Shirt mit einem Mini Rock. Diese wurden aus 3D Studio Max in ein sculpted Map TGA portiert.
    Die Texturen für die Kleidung wurden von den T-Shirts und Klamotten meiner Frau fotografiert und dann entsprechend mit Photoshop aufbereitet um sie dann über die Skin des Mädchens zu legen.


    Die Bewegung des Mädchens wurde durch echtes Motion Capturing realisiert welches in einem einfachen Mocap Studio in Hagen von einer echten Tänzerin aufgenommen wurde
    der Mocap Pfad wurde in Poser importiert und dann als bewegungsanimationspfad für OpenSim umgewandelt und exportiert.
    Nun wird ein Loop Script erstellt was den Animationspfad auf die einzelnen Meshes des Avatars legt und immer wiederholt.
    Die Haare des Mädchens bestehen aus Flexiprims welche sich aufgrund der Bewegung und des Windes von der Phsyics Engine korrekt bewegen.
    Im Hintergrund laufen noch Particle Scripts welche die Landschaft animieren.


    Mit einer virtuellen Kamerafahrt wird dann der sich bewegende und tanzende Avatar aufgezeichnet und das Video auf Festplatte gelegt.


    Das erstellte Video wird nun mit Hilfe von Virtual Dub gecroppt und auf 320x200 Pixel resized. Dabei auf das korrekte Ratio achten.
    Das Video wird mit Virtual Dub nun als Einzelbildsequenz im BMP Format auf die Platte exportiert.
    Dann konvertiert man die einzelbilder mit dem Mufflon Converter in das *.nuf Format
    Diese Sequenz wird dann mit dem Nuviemaker eingelesen und als Nuvie Video für den C-64 konvertiert.


    Das wird in die REU eingeladen und die fertige Sequenz kann angeschaut werden.


    Hier die fertige Sequenz in schlechter Videoqualität (Cinepak Codec) gegrabbt:


    Klick mich


    Hier die fertige Sequenz in live auf dem echten Cevie, schuldigung für das flickern ist mit der Digicam aufgenommen:


    Klick Mich


    Und hier die REU Datei für alle zum selbstprobieren, einfach in das Root der SD Karte von der 1541U laden und dann den Nuvieplayer starten
    im Vice bitte die REU Datei einladen und genauso vorgehen, einfach per drag & drop den Nuvie Player laden und ausführen.


    Klick mich zum download des Demos für die 16MB REU


    Die Datei ist 16MB gross und liegt auf Rapidshare, die Rechte daran habe ich, also ist das legal anzubieten. Die Demo ist PD und ich gebe sie zum verteilen frei, wer mag darf damit machen was er möchte. Ich hab bewusst auf Sound und Copyrighthinweise verzichtet, das Demo spricht für sich.


    Viel Spass damit und ich hoffe es gefällt euch


    Gruß
    Tom / Pentagon

  • Ich finde, der Tune passt:
    /MUSICIANS/D/DRAX/Six-Pac_Man.sid


    Der ist schön poppig, aber:
    <HVSC>/MUSICIANS/J/Jammer/For_Raf.sid
    ist vom Rythmus her auch ganz passend.
    Ich habe mal 2 SID player Instanzen aufgemacht. Einer spielt das Video, der andere die Musik.
    Dann kann man mal ein paar Kombinationen durchprobieren.
    :))


    Edit2: Auch cool:
    <HVSC>/MUSICIANS/J/Jeff/Hyperzapper.sid


    Edit: Wir wäre es mal mit einer Serie von Dance Videos da müsste man doch "nur" die Animationen und die Musik tauschen oder?

  • Danke schön,


    also ich suche gerade nochmal nen passenden SID dazu, ich fände was Techno oder House mässiges nicht schlecht. Naja, mal sehen was ich finde, wenn jemand Ideen hat, immer her damit.


    Roland:


    das wäre ja echt geil, ich finde das Ergebnis so schon sehr beeindruckend, aber das wäre natürlich der Hit. Kann der Java Converter dann batches verarbeiten? Weil der Mufflon ist schon toll, vor allem weil er aus der Kommandozeile läuft.


    Ich werde evt. noch ein verbessertes Demo machen, das dauert aber noch etwas. Ich muss erst die Commodore Umgebung auf dem PC Programmieren und die Texturen bauen. Das wird im Prinzip ein PC Demo, was ich dann auf nuvie konvertiere. Ist schon ne Menge Arbeit. Die Figur kann dafür so interagieren wie ich das möchte.


    Gruß
    Tom / Pentagon

  • Stark! Das meinte ich gestern mit "grafisch draufhaben"... selbstanimiert ist eben doch ne ganz andere Nummer als einfach nur ein Video konvertieren. ;) Ganz toll, Pentagon, so etwas wird von mir garantiert nie kommen. :D


    einfach selber tanzen und aufnehmen :) sieht sicher auch lustig aus.


    Pentagon: Ja, das java programm habe ich auch immer über die komandozeile gestartet (in einer batch schleife).
    Braucht dann so ca. 2 sekunden pro bild. Und die Ergebnisse sind echt um längen besser.

  • Leute! Das meiste, was das Java-Tool kann, kann auch der mufflon daily snapshot! ;-) Warum liest mal wieder keiner das Readme, wenn ich mir schon die Mühe mache? <:-)


    Also, einfach anon auschecken mittels:

    Code
    1. svn co https://svn.sngs.de/metalvotze/svn/repo/mufflon


    dann ein make machen (OpenMPI, tcl/tk, PIL und Python sollten installiert sein, aber wenn du das .deb von mufflon schon installiert hast brauchst du nur noch OpenMPI unter Ubuntu!) und schon kannst du das Ding nutzen. Wenn du ne Multicore-Maschine hast läuft's auch noch ein paarmal schneller! ;-) Für v2 kannst du dann auch noch ne Musik einbauen!


    Batch-kommando mit guten Einstellungen:

    Code
    1. for i in <prefix>???.bmp ; do mufflon $i --flibug -p --dither --prep_mode yuv ; done


    Zum Video: Sehr fein, sowas will ich sehen, Selbergemachtes ftw! ;-D


    Dee


    P.S: Ich war mal so frei, das auf CSDB zu posten: http://noname.c64.org/csdb/for…id=13&topicid=84489#84586


    P.P.S: Der pr0n von X2010 wurde mit dem neuen Mufflon daily konvertiert, nicht mit dem Java-Tool! 8) Die Ergebnisse waren besser, das Java-Tool hat immer wieder mal grün reingemacht, was bei nacktem Fleisch eher nicht so toll ist...

  • ich hab mir den Daily schon gestern geholt und ich hab die Readme gelesen YAY :beer:


    Also gut, dann eben selbst kompilieren.....


    @Deekay:


    Danke für den CSDB Eintrag. Aber die Videolinks stimmen nicht ganz. Du hast zweimal den gleichen gepostet. Ich kann da leider nicht editieren. Aber ich müsste sogar mit meinem Namen "Pentagon" da irgendwo drinstehen mit dem "Peace on Earth" Willow Demo....


    Gruß
    Tom / Pentagon

  • Pentagon: Spiel halt mal mit der GUI rum mit einem Beispielbild, eventuell ist für dein Video ja was anderes als YUV besser, muss man probieren! Auch mit den kontrast/gamma/helligkeit/sättigung-Slidern kann man mal rumspielen, ob das das Ergebnis verbessert, wenn die Farben sehr satt sind (z.B. Rolands Nemo video oder auch die Rick-Astley-Sequenz in BluREU) hat es sich gezeigt, dass ne Desaturierung um vielleicht 20% deutlich bessere Ergebnisse bringt (die c64-palette hat einfach keine richtig satten Farben, deshalb kann man das nicht ordentlich mappen!)