Ich habe zugegebenermaßen ein Extrembeispiel.
Ich habe 3.600 Koordinaten mit der Open-Funktion exportiert und sie mit get# importiert.
get# ist aus meiner Sicht kein besonders toller Befehl.
Zeilenweises Einlesen geht nicht, ich muss eine eigene Verarbeitungslogik nutzen um Zeichen einzeln zu parsen, zusammenzusetzen und in rechenbare Werte umzuwandeln.
Die Umwandlung von Petscii in Zahl ist nicht so schlimm, aber dass ich selber prüfen muss wieviele Ziffern jeweils in einer Zeile stehen um diese dann zu verketten finde ich schon schlecht.
Noch blöder finde ich, dass die get#-Funktion evtl. Fehler beim Einlesen macht. Mein Export sieht sauber aus. Aber nach dem Import habe ich im Mittelteil der Daten eigentlich immer ein paar Mal Fehler drin. Wenn mein Einlese-Algorithmus gefühlt bei 3500 von 3600 Werten richtig arbeitet, kann da imho nicht der Fehler liegen. Wobei ich auch gerne blöde Fehler mache, so ist es nicht.
Daher die Frage in die Runde: Ist get# dafür bekannt dass es bei großen Zahlenmengen fehlerhaft arbeitet?
P.S.: die Leier mit Loco Basic fange ich gar nicht erst an. Dort tut alles nämlich wunderbar per zeilenweisem Einlesen ohne Einzelzeichen-Verarbeitung und manueller ziffernabhängiger Verkettung. Man hat dem CPC eben keine Sprites gegeben. Tja so ist es eben.