das mit meinem Design/SW
etwas über 1.000.000 wfms/s schafft, das entgeht mit kein Fehler!)
Also betrachten wir das doch mal ganz konkret:
Ich generiere einen Sinus von 50MHz, der also aus 100 Millionen Halbwellen je Sekunde besteht.
Ich nutze dazu einen Arbiträrgenerator, der IM SCHNITT jede 100. Halbwelle weglässt, jedoch zufällig und NICHT GLEICHVERTEILT im Abstand.
Das Scope sampelt mit 250MS/s, d.h. von jeder Schwingung sind gerade mal FÜNF Samples vorhanden (da es ja nun kein strikt periodisches Signal mehr ist, kann auch nicht getrickst werden...).
Ein ECHT analoges Oszi würde mit z.b. einer Horizontalablenkung von z.b. 10 ns/div Je Raster eine Halbwelle anzeigen.
Dafür würde es bei 10 [div]isions Bildschirmbreite 10 Millionen Updates fahren, natürlich viel zu schnell für einen Menschen, um die wenigen Aussetzer direkt sehen zu können.
Jedoch würden die fehlenden Halbwellen zu einem Muster auf der Grundlinie führen, das sichtbar wäre und auf die Störung hinweist.
Stelle ich von 10ns/div auf 200ns/div und single trigger, dann sähe ich (hohe Nachleuchtdauer vorausgesetzt) statistisch immer noch min. EINE ausgelassene Halbwelle.
Fange ich von den noch gut darstellbaren 10 Millionen notwendigen Updates jedoch nur 10.000 oder meinetwegen auch 100.000 mittels eines digitalen Oszis ein, dann sehe ich mit großer Wahrscheinlichkeit: GAR KEINEN Fehler!
Denn, wie ich weiter oben geschrieben und auch die Posts nach mir bestätigt haben: die Ausgabe erfolgt nochmals langsamer:
Stellt das digitale Oszi das Bild dar, wird wiederum nur ein Teil des Sample-Speichers auch wirklich dargestellt, welcher, das entscheidet -neben der gewählten virtuellen Zeit/div-Darstellung- mehr oder minder der Zufall, einen Trigger auf "ausgelassene" Halbwelle bieten nur die Oszis der Spitzenklasse.
Wenn dann der digitale TFT-Bildschirm eine reale Bildrate von z.b. 60Hz zulässt, dann müsste unter den aufgezeichneten Daten im gewählten Fenster der Fehler in eben min. einem (eher mehreren, um erkennbar zu sein) der NUR 60 Frames vorhanden sein. 60 vs. 500.000 beim analogen Oszi!
Natürlich werden jetzt die Fachkundigen einwerfen, dass die Digital-Oszis ja mit allerlei Filtern über die Samples gehen und somit eventuell doch was anzeigen, aber das wiederum ist dann schlicht und ergreifend verfälscht und für mich als Anwender auch nicht nachvollziehbar, über welche Merkmale das ausgewählt und wie es letztlich dargestellt wird!
Die Funktion der sog. Persistenz ist natürlich eine Möglichkeit, das zu verbessern, aber auch da werden zwangsweise ganze Zeitabschnitte ausgelassen, in denen der Samplespeicher übertragen wird etc. (es sei denn, es laufen, wie bei Oberklassegeräten mehrere Wandler abwechselnd, die Abtastung wäre also stets lückenlos gewährleistet)
Aber solange das digitale Oszi gleich an zwei Stellen aussetzt: zum Einen das sampling, um die Daten (langsamer) aus dem Sample-Speicher in den Controller-Speicher zu übertragen, zum Anderen aus diesen Daten dann willkürlich oder über nicht offengelegte Algos einen Ausschnitt oder wie auch immer gearteten Durchschnitt bestimmt, der für die Dauer eines TFT-Frames angezeigt wird, so lange kann keiner behaupten, damit JEDEN Fehler zu sehen!
Was folgt daraus:
1) für sporadische und dazu noch statistisch verteilte Fehler sind selbst die besten Digitaloszis im "free running" mode NICHT das geeignete Messgerät und analoge Oszis nur dann, wenn das die Nachleuchtzeit und der Kontrast der Röhre hergeben.
2) Hat das Digitaloszi einen sehr tiefen Speicher, dann kann aber wenigstens ein gewisser Zeitausschnitt 1:1 später offline analysiert werden. Dafür aber bleibt der Bildschirm relativ lange unverändert resp. hinkt hinterher. Aufgrund der wertemäßigen Aufzeichnung mit meist 8, besser 12bit ist der Speicherbedarf aber immens groß. Zudem kann nicht sichergestellt werden, dass die gespeicherten Samples das gesuchte Fehlerbild enthalten, da kein komplexer Trigger darauf möglich ist, bestenfalls später via Auswertesoftware am PC die Suche nach einem solchen Muster.
3) ein Logic-Analyzer würde zwar die Wellenform nicht richtig darstellen, sondern als Rechteck entspr. der Triggerschwelle sehen, aber er würde das Muster, ganz gleichgültig, wie unregelmäßig es auch sein mag, korrekt aufzeichnen und mir damit erlauben, es in Korrelation zu anderen Messungen zu setzen, um die Ursache finden zu können. Zudem erlaubt die Reduktion eine Echtzeit-Datenreduktion mittels Huffman-Code, also Lauflängenkodierung, es wird also die Anzahl der nacheinanderfolgenden Abtastungen gleicher Werte gespeichert anstelle der Werte im Zeitverlauf selbst. (dieser Trick z.b. wird auch beim Fax eingesetzt und reduziert die Übertragungszeit von 10 min. auf unter 20s je Seite!) Selbst OHNE diese Kompression würde ein Logicanalyzer mit dem gleichen Speicher achtmal länger aufzeichnen können, resp. 8 Signale parallel.
Kennt man ein zu suchendes Muster, kann ein komplexer Trigger über mehrere Signale hinweg eingerichtet werden, incl. wählbarer Vorlauf- und Nachlaufzeit der Aufzeichnung zumindest im Rahmen der (durch Kompression erweiterten) Speichertiefe.
Insofern eignet sich ein Logic-Analyzer deutlich besser für die Fehlersuche, insb. nach sporadischen Mustern oder Aussetzern in digitalen Systemen. Das Oszi kann helfen grundlegende Probleme aufzuspüren, wie zu langsame Anstiegszeiten, falsche Pegel oder ganz fehlende Signale.
Erst eine Kombination aus Beiden ist wirklich hilfreich, d.h. sollten beide Geräte oder eben ein Kombi-Gerät zur Verfügung stehen. Daher meine Empfehlung, ein solchiges anzuschaffen!