Testen und Prüfen Wenn die Test- und Messtechnik embedded spricht
Um eingebettete Systeme zu testen, lassen sich die Instrumente direkt in den Chip implementieren oder als Softmacro in einen FPGA laden. Allerdings verursachen hohe Geschwindigkeiten auch Probleme.
Anbieter zum Thema

Kein Zweifel, der Begriff Embedded ist in nahezu allen Entwicklungsbereichen omnipräsent. Und es wird überall fleißig daran gearbeitet, dass immer Anwendungen eingebettet werden, sowohl auf Chip- als auch auf Boardniveau. Insbesondere die schnelle Entwicklung bei den Microcontrollern und FPGAs erschließt neue Möglichkeiten, um die Multifunktions-Elektronikur vernetzbarer, rekonfigurierbarer und kompakter zu gestalten. Neue Chip-Technologien in 3D werden diesen Trend weiter verstärken.
Die Entwicklung komplexer Produkte verlangt nicht nur, dass man Software-, FPGA- und Board-Design beherrscht, sondern die einzelnen Entwicklungsetappen konzipiert. Das reicht von der Produktkonzeption, über das Design, die Implementierung und der kompletten Prototypen-Validierung. Eine wichtige Rolle spielt das V-Modell (siehe Bild 1). Es definiert für jeden Entwicklungsschritt adäquate Verifikationsprozeduren, um eine strukturierte Gesamtvalidierung sicherzustellen.
Dabei wurden im Modell die rein funktionalen Betrachtungen durch strukturelle Prozessschritte ergänzt. Der Hintergrund dieser Veränderung liegt darin begründet, dass strukturelle Validierungen und Tests im Rahmen entsprechender DfT-Strategien (Design for Testability) mittlerweile fester Bestandteil moderner Entwicklungen und Produktionstests geworden sind und dort eine zunehmend wichtigere Rolle spielen.
Um das zu erreichen, steht den Entwicklern zur hierarchischen Validierung ein immer breiter und performanter werdendes Spektrum an Instrumenten wie Emulatoren, Oszilloskope, Logikanalysatoren, Bit Error Rate Tester (BERT) und viele weitere zur Verfügung. Eigentlich sollte damit die Welt in Ordnung sein, aber ist sie das wirklich? Spricht man die Entwicklungsingenieure oder die Testingenieure auf die Situation an, fällt in der Diskussion vor allem ein Tenor auf und der heißt: Probleme bei der Signalgewinnung.
War es früher möglich, fast jedes Pin oder wenigstens jedes Netz zur Verifikation bzw. zum Test zu kontaktieren, ist das durch den immer weiter fortschreitenden Einsatz von Fine-Pitch-IC, BGA und in der Leiterplatte eingebetteten Leiterzügen dramatisch erschwert. Dabei wurde und wird das Missverhältnis von erforderlicher Testpunktgröße und schrumpfender Strukturgröße immer schlechter.
Das verifizierende Objekt und der Steckverbinder
Damit ist die klassische Strategie der In-Circuit-Instrumentierung, also der taktile Einsatz von externen Instrumenten direkt in der Schaltung, für den Entwickler nur noch in eingeschränktem Maße ein reales Hilfsmittel, um notwendige Signalinformationen zu gewinnen. Der taktile Zugriff auf das zu verifizierende Objekt wird dadurch immer mehr auf die nativen Steckverbinder reduziert.
Die gleiche Erfahrung machen die Testingenieure in der Produktion beim Einsatz des traditionellen In-Circuit-Tests (ICT). Hier führt die geschilderte Entwicklung zu Problemen in Form verringerter Testabdeckung, stark steigenden Kosten zur Fehlerdiagnose bis hin zum NFF-Syndrom (No Failure Found). Insofern entsteht ein zunehmend kollektiver Leidensdruck, welcher jedoch zu teilweise völlig unterschiedlichen Reaktionen führt.
Die einen fangen an bei jedem Design, um jeden Testpunkt zu feilschen. Andere hingegen suchen ihr Heil im Einsatz von Flying Probe Testern (FPT), welche sehr kleine Flächen bis hin zu Pin-Pads kontaktieren können. Wieder andere sehen einen verbesserten Funktionstest als einzigen Ausweg. Da dem Entwickler weder ein ICT noch ein Flying Prober wirklich helfen kann, sein Validierungsproblem zu lösen und Testpunkte eine aussterbende Gattung sind stellt sich die Frage nach alternativen Strategien.
Was aktuelle FPGA-Generationen leisten können
Um Informationen immer schneller zu übertragen und zu verarbeiten ist im Endeffekt eine kontinuierliche Geschwindigkeitssteigerung des internen Signalflusses unvermeidbar. Neben dem Übergang zur Parallelverarbeitung durch Multicore-Systeme steht dabei vor allem eine vergrößerte Signalübertragungsfrequenz im Visier der Entwickler. Insbesondere der Übergang zu seriellen Gigabit-Links ist wichtig. Gigabit-Verbindungen werden extern über standardisierte Kommunikationsbusse, wie USB3.0, PCI- oder SATA-Express realisiert, sind aber auch boardintern als High-Speed-Übertragungsmedium von Chip zu Chip zunehmend im Einsatz. Eine der wichtigsten Treiber sind die FGPAs. Aktuelle FGPA-Generationen von Xilinx oder Altera bieten Übertragungsraten bis 28 GBit/s und das parallel auf 96 Kanälen.
Das Design-In solcher GBit-Links verlangt allerdings große Sorgfalt von den Testingenieuren ab. Solche Verbindungen unterliegen aufgrund ihrer hohen Frequenzen mehr den typischen Merkmalen der Analogtechnik als der Digitaltechnik, auch wenn die differenzielle Übertragungstechnik eine Reihe von Problemen entschärft. In jedem Fall sind die Designregeln sehr stringent und erfordern impedanzoptimierte Implementierungen, um eine hohe Übertragungsqualität zu erreichen.
Um die Verbindungen zu validieren, stehen Gigabit-Analyzer mit speziellen Tastköpfen zur Verfügung. Dennoch ruft die Antastung der GBit-Signale in jedem Fall eine Beeinflussung der Signalintegrität hervor. Es ist als wolle man eine spiegelglatte Wasseroberfläche berühren ohne Eintauchwellen zu verursachen.
(ID:42293144)