Optimierung des Stromversorgungsdesigns zur Verbesserung von SWaP-C und TTM

Zeit/Kosten/Qualitäts-Dreieck
Stromversorgungslösungen gehören in der Regel auch zu den teuersten Komponenten in der Systemmaterialliste (BOM).

Jetzt das ganze Whitepaper herunterladen

Einleitung

Es gibt viele überzeugende Gründe, den Designprozess zu optimieren — insbesondere im Bereich des Stromversorgungsteilsystems, das oft eher als notwendiges Übel statt als direkter Beitrag zu hochwertigen Systemfunktionen betrachtet wird. Stromversorgungslösungen gehören zudem zu den teuersten Komponenten in der Systemstückliste (BOM). Diese Faktoren, zusammen mit dem Vertrauen, das sich aus der Wiederverwendung eines qualifizierten Designblocks oder eines handelsüblichen Leistungsmoduls ergibt, motivieren zur Einführung einer Leverage-/Wiederverwendungsstrategie über aufeinanderfolgende Projekte hinweg.

Nahaufnahme von Bauteilen auf einer Leiterplatte

Eine Betrachtung des typischen Designprozesses für Stromversorfungslösungen

Um die Beweggründe für das Leverage oder die Wiederverwendung von Stromversorgungslösungen vollständig zu verstehen, lohnt es sich, einen kurzen Moment innezuhalten und den typischen Designprozess zu betrachten, um die Lücken und Chancen zu identifizieren, die solche Strategien antreiben. Ob Sie direkt als Stromversorgungsstakeholder beteiligt sind oder Dienstleistungen im Stromversorgungsdesign erhalten: Wenn der nachfolgend skizzierte, verallgemeinerte Prozess Ihre Erfahrungen widerspiegelt, sind Sie mit dieser Perspektive vermutlich nicht allein.

Abbildung 1 zeigt die typischen allgemeinen Schritte, die ein Team unternehmen kann, um von einem Konzept zu einem Systemleistungsbudget und zu physischen oder umweltbedingten Randbedingungen zu gelangen. Zwar handelt es sich dabei nicht um einen „offiziellen“ Prozess – ein wenig Humor ist durchaus beabsichtigt – doch spiegelt er dennoch viel Realität wider.

Der „magische“ Teil steht für die unrealistischen Anforderungen, die sich aus stark aufgeblähten Systemleistungsbudgets ergeben, welche Wirkungsgrade, Leistungsdichten oder Transientenreaktionen verlangen können, die entweder für die jeweilige Produktklasse höchst unpraktisch sind oder selbst mit modernster Technologie (SOTA) schlichtweg nicht erreichbar sind.
Rx Der "offizielle" Designprozess für Stromversorgungen
  • Schritt 1: Alle Systembeteiligten (in der Regel ohne den Nutzer der Stromversorgung) kommen zusammen und entwerfen ein System.
  • Schritt 2: Bestimmen des Leistungsbudgets des Systems durch Summieren der Maxima aller Hauptlasten im System.
  • Schritt 3: Bestätigen der Machbarkeit mit dem Beteiligten für Mechanik/Thermik.
  • Schritt 4: Liefern Sie dem Verantwortlichen für die Stromversorgung das Leistungsbudget, die Volumenbeschränkungen und den Projektzeitplan.
  • Schritt 5: Magie?!? (das heißt: vergessen Sie Physik und Realität)

Abb. 1: Der "offizielle" Designprozess für Stromversorgungen, mit freundlicher Genehmigung von PowerRox
Eine zentrale Erkenntnis ist, dass Stromversorgungsstakeholder zwar die Outputs verantworten müssen, jedoch selten in den Prozess eingebunden sind, der zu den Inputs führt. Angesichts der Tatsache, dass das Power Engineering ein hochspezialisiertes Fachgebiet mit multidisziplinärem Hintergrund ist – in der Regel aufgebaut durch viele Jahre praktischer Erfahrung – ist es erstaunlich, wie selten diese Expertise frühzeitig einbezogen wird. Besonders kritisch ist dies, da Stromversorgungsteilsysteme oft der primäre Schlüsselfaktor für die Optimierung von Systemgröße, Gewicht, Leistung und Kosten (SWaP-C) sind. Da keine Elektronik ohne Strom funktioniert, gehören auch Leistung und Zuverlässigkeit zwingend auf diese Liste. Erschwerend kommt hinzu, dass der Projektzeitplan häufig auf einem idealisierten, fehlerfreien Entwicklungszyklus basiert – oft zusätzlich um 10% verkürzt, um die Time-to-Market (TTM) gegenüber der Vorgängergeneration noch weiter zu beschleunigen – was die ohnehin schon unrealistischen Anforderungen zusätzlich verschärft.

Nun beginnt der Verhandlungsprozess. Ingenieure sind darauf trainiert, Probleme zu lösen. Wenn sie mit einer Liste herausfordernder Aufgaben konfrontiert werden, ist der erste Reflex, sofort nach Lösungen zu suchen (z. B.: Gibt es ein vorhandenes Teil, das diese Leistungsdichte und diesen Footprint erfüllen kann? Soll der Luftstrom von vorne nach hinten oder von hinten nach vorne verlaufen, um die thermischen Anforderungen des Systems zu erfüllen? Und so weiter...). Schon dieser erste Schritt ist eine Gelegenheit, innezuhalten und das Systembudget sowie dessen Entstehung genau zu hinterfragen.

Wie oft ziehen beispielsweise alle Lasten – insbesondere die größeren – tatsächlich gleichzeitig ihren Maximalstrom? Viele Teilsysteme sind so ausgelegt, dass sie in Gegenphase zu anderen arbeiten (z. B. klassische Beispiele für Rechen- und Speicherleistungsanforderungen oder Betriebszyklen wie Schlafen/Wachen/Senden), sodass es selten sinnvoll ist, die Summe der Maxima – oft aus Datenblättern mit bereits unrealistischen Maximalwerten plus Sicherheitsmarge abgeleitet – für das aggregierte Leistungsbudget heranzuziehen.

Berücksichtigen Sie jeden Berührungspunkt dieses Leistungsbudgets von der Entstehung bis zur Finalisierung. Jeder Stakeholder wird tendenziell eigene Margen hinzufügen, um seine spezifischen Vorgaben abzusichern – was sich im Laufe des Prozesses stark aufsummiert. Diese zusätzlichen „Fettschichten“ verursachen erhebliche Mehrkosten und binden Ressourcen für die Auslegung auf extrem unrealistische Betriebsszenarien, selbst unter Berücksichtigung extremer Worst-Case-Modelle.

Ein weiterer wichtiger Punkt im Kampf gegen aufgeblähte Systemleistungsbudgets ist, die größten Chancen für Optimierung zu erkennen. Beginnen Sie damit, die größten und anspruchsvollsten Lasten im System zu identifizieren, und sprechen Sie mit den maßgeblichen Stakeholdern, die am besten verstehen, was diese Lasten tatsächlich an Leistung benötigen. Sammeln Sie dabei nach Möglichkeit reale Charakterisierungsdaten. Dieser Ansatz öffnet oft die Tür zur Einführung intelligenter Leistungsmanagement- (IPM-)Techniken, wie z. B. die Zusammenfassung von Niederspannungs-Stromschienen, Lastverteilung oder -abwurf sowie kurzfristige Leistungszuteilung.

IPM wird definiert als eine „Kombination aus Hardware und Software, die die Verteilung und Nutzung elektrischer Energie in Computersystemen und Rechenzentren optimiert“ [1]. Auch wenn der Begriff ursprünglich im Rechenzentrumsumfeld geprägt wurde, ist seine Anwendung weitreichend, da IPM eher eine Denkweise im Designansatz darstellt als eine spezifische Lösung. Beispielsweise kann ein Wechsel des Denkmodells bei der Architektur des Stromversorgungssystems von „immer eingeschaltet“ zu „immer verfügbar“ einen echten Paradigmenwechsel im Endergebnis bewirken. Dies erfordert eine enge Zusammenarbeit sowohl mit internen Teammitgliedern als auch mit externen Anbietern.

Mit anderen Worten: Es ist oft wesentlich einfacher, schneller und kosteneffizienter, den Aufwand darauf zu richten, das Systemleistungsbudget auf eine realistische Zusammenfassung der maximalen Worst-Case-Leistungsbelastung (aus der Perspektive jeder einzelnen Stromversorgung) zu reduzieren, anstatt zu versuchen, die Physik – oder verfügbare Komponenten – an unrealistische Erwartungen anzupassen. Angesichts des konstanten Drucks auf Zeit- und Kostenreduzierung ermöglicht dieser Ansatz einen deutlich reibungsloseren Verhandlungsprozess zwischen den Team-Stakeholdern und hilft, ein pragmatisches Gleichgewicht zwischen Zeit, Kosten und Qualität herzustellen. Diese unvermeidlichen Kompromisse sind eng miteinander verknüpft, ganz gleich, wie sehr wir uns wünschen, dass dem nicht so wäre, wie in der nachstehenden Abbildung dargestellt. Ein Produkt kann zum Beispiel für zwei der drei Faktoren – Zeit, Kosten oder Qualität – optimiert werden, aber selten für alle drei gleichzeitig.
Das Zeit/Kosten/Qualitäts-Dreieck

Abb. 2: Das Zeit/Kosten/Qualitäts-Dreieck
Es ist wichtig, den Unterschied zwischen Leverage und Wiederverwendung klar zu formulieren, wenn man mit Programmmanagern oder externen Anbietern kommuniziert, da beide Begriffe etwas sehr Unterschiedliches bedeuten können – obwohl sie häufig austauschbar verwendet werden. Eine falsche Kommunikation in diesem Bereich kann zu negativen Auswirkungen auf Programme oder Lösungen führen. Leverage bedeutet, auf eine bestehende Lösung zurückzugreifen und kleinere Aspekte (z. B. Werte passiver Komponenten, Signal-/Logik-/Komparatorschwellen, kosmetische Details, Formfaktoren usw.) des Originals zu ändern, um sie für einen ähnlichen, aber nicht identischen Anwendungsfall zu optimieren. In diesem Zusammenhang ist semi-custom ein gebräuchlicher Synonymbegriff für Leverage.

Diese Unterscheidung wird besonders wichtig, wenn man mit einem Komponentenanbieter über ein „fully-custom“-Design (d. h. – eine vollständige Neuentwicklung) im Vergleich zu einem „semi-custom“-Design spricht, bei dem typischerweise eine Modifikation einer handelsüblichen COTS-Lösung vorgenommen wird. Die Unterschiede zwischen beiden können erhebliche Auswirkungen auf den Angebotspreis (sowohl für die Komponente als auch für das einmalige Engineering, NRE) sowie auf die Lieferzeit haben.

Direkte Wiederverwendung bedeutet, ein bestehendes Design exakt zu kopieren. Im Wesentlichen entspricht dies dem Kauf von COTS-Komponenten (Commercial Off-The-Shelf), auch wenn es gewisse Grauzonen geben kann, da einige feste Designs bewusst mit Flexibilität im Hinterkopf entwickelt wurden. Ein Beispiel dafür ist die Wiederverwendung von Power-Bricks mit einem weiten Eingangsspannungsbereich oder einem programmierbaren Ausgang für verschiedene Anwendungen. Es ist auch üblich, eine Bauteilfamilie zu nutzen („Leverage“), insbesondere bei Leistungsmodulen, die für standardisierte Footprints ausgelegt sind. Dadurch lassen sich spezifische Moduleigenschaften – wie Eingangs-/Ausgangsspannungsbereich, Leistungsdichte, Strombelastbarkeit, Pinbelegung und Filterung – besser an die jeweilige Anwendung anpassen.
Auf der Leiterplatte montierte Komponenten
Im Allgemeinen wird geprüft, ob die drei Hauptmerkmale – Form, Eignung und Funktion (d. h. Aussehen, mechanische/thermische Kompatibilität und elektrische/kommunikative Leistung) – erfüllt sind, um zu bestimmen, ob es sich um Leverage oder direkte Wiederverwendung handelt. Auch dies ist ein Bereich, in dem sich sorgfältige Verhandlungen und detaillierte Gespräche mit Teampartnern und Lösungsanbietern sehr lohnen, da einige Organisationen strikte Vorgaben für die Einhaltung von Form/Eignung/Funktion haben.

Ein Beispiel: Wenn bei einer bestehenden Stromversorgung lediglich die ENABLE- oder POWER ON-Signallogik von positiv auf negativ geändert wird (High-Level- gegenüber Low-Level-Einschaltung), mag diese Änderung trivial erscheinen – sie kann jedoch eine vollständige neue Runde an Qualifizierungstests erfordern, genauso wie bei einem völlig neuen Produkt (z. B. neue Teilenummern und alle damit verbundenen Prozesse), und würde damit als Leverage eingestuft.

Noch trivialer erscheint es, ein Wort, eine Aussage oder einen Wert auf dem Etikett eines Power-Bricks zu ändern. Handelt es sich dabei jedoch um ein sicherheitsrelevantes Etikett oder werden dadurch Anforderungen an die Formatierung von Teilenummern oder an eindeutige Identifikationsinformationen im EEPROM verändert, können neue regulatorische Prüfungen erforderlich werden und/oder Fertigungsprozesse müssen angepasst werden. Damit wäre die ursprüngliche Form/Eignung/Funktion ebenfalls verletzt. Nachdem man den Prozess der Verhandlung des Systemleistungsbudgets überstanden hat, kann man sich nun gezielt darauf konzentrieren, Lösungen vorzuschlagen, um dieses Budget in die Realität umzusetzen. Angesichts des Zeit- und Kostendrucks wird sich der anfängliche Fokus typischerweise auf bewährte Lösungen oder Teilschaltungen (auch Makros genannt) richten. Hier kommen Leverage und auch direkte Wiederverwendung besonders zum Tragen. Es ist entscheidend sicherzustellen, dass tatsächlich solide, bewährte Lösungen genutzt werden – und nicht einfach aus betrieblichem Druck heraus recycelt wird (mit einer unten genannten Ausnahme).

Dies unterstreicht die Bedeutung, Zeit und Ressourcen für die Themen bereitzustellen, für die man oft behauptet, „keine Zeit/Ressourcen“ zu haben. Blindes Recyceln bedeutet auch, sämtliche Fehler oder Schwächen des Originaldesigns zu übernehmen. Tatsächlich kann eine Organisation, die streng auf die Einhaltung von Form/Eignung/Funktion achtet, verlangen, dass eine Second-Source-Komponente absichtlich einen bekannten Fehler oder Defekt nachahmt, um bei Multisourcing-Lösungen die Abwärtskompatibilität zu wahren (HINWEIS: Multisourcing ist ein eigenes Thema und sollte vor der Implementierung sorgfältig auf Vor- und Nachteile geprüft werden – dies liegt jedoch außerhalb des Rahmens dieses Whitepapers).

Die Vernachlässigung von iterativen Verbesserungen von einer Produktgeneration zur nächsten kann die betriebliche Effizienz erheblich beeinträchtigen. Umgekehrt kann die Wiederverwendung eines bewährten und vertrauenswürdigen Designs mit bekannten Leistungsmerkmalen die Entwicklung erheblich beschleunigen (Stichwort: Plattformdesign-Ansatz). Es gibt viele etablierte, zuverlässige Stromversorgungsanbieter, die diese Strategie unterstützen – insbesondere bei der Verwendung von COTS-Stromversorgungsmodulen.
Kanban board im Büro
Wenn ein Designteam an mehreren Systementwicklungen gleichzeitig und/oder in rascher Folge arbeitet, verfügt es wahrscheinlich über einen gut bestückten Werkzeugkasten mit verschiedenen Stromversorgungslösungen, Teilblöcken oder Produktfamilien, die für eine Vielzahl von Standardanwendungsszenarien geeignet sind. Dieser Werkzeugkasten umfasst häufig vorgefertigte, vorqualifizierte und bereits getestete Stromversorgungsmodule – entweder intern entwickelt oder von einem Stromversorgungsanbieter bezogen.

Natürlich dient diese Strategie der Optimierung aller SWaP-C-Faktoren, wie bereits oben erwähnt, doch ihr größter Wert liegt in der Risikominderung – insbesondere bei kritischen, hochzuverlässigen oder volumenstarken Anwendungen. Eine isolierte Stromversorgung für einen SiC-Treiber kann beispielsweise durch die Kombination von Transformator-Treiber, Transformator, Gleichrichter und LDO aufgebaut werden. Ein fertiges DC/DC-Modul (wie das RxxP1503D von RECOM mit asymmetrischen Ausgangsspannungen, die für eine optimale Gate-Treiberleistung ausgelegt sind) beschleunigt jedoch nicht nur die F&E-Phase erheblich, sondern konsolidiert auch mehrere Bauteile zu einem einzigen BOM-Posten. Dadurch wird die Gefahr eines Fehlers, der den teuren SiC-Transistor beschädigen könnte, deutlich reduziert .

Rationalisierung des Systemdesignprozesses

Kennen Sie die Stakeholder Ihres Teams

Das geht weit über die ursprünglichen Ingenieurteams hinaus, die direkt an der Systementwicklung beteiligt sind. Es sollten auch Programmmanager (PMs), Verantwortliche der Lieferkette, Fertigungsmitarbeiter und sogar Software-/Firmware-Designer (SW/FW) einbezogen werden. Obwohl es vielleicht kontraintuitiv erscheint, gehören auch die Marketing- und Vertriebsteams sowie alle, die direkten Kontakt zu Kunden oder Endnutzern haben, zu den wichtigsten Stakeholdern, die frühzeitig eingebunden werden sollten. Es ist weitaus besser, Kompromisse auszuhandeln und fundierte Entscheidungen frühzeitig zu treffen, als später Entscheidungen in einer Top-down-Manier ohne Beiträge von Stromversorgungsexperten diktieren zu lassen – wie bereits zu Beginn dieses Whitepapers hervorgehoben wurde. Vermeiden Sie die Denkweise „Wenn wir es bauen, werden sie schon kommen“. Wenn die Marktanforderungen und das Kundenpotenzial vor Beginn eines neuen Projekts nicht klar verstanden sind, steigt das Risiko eines Produktflops erheblich.

Kennen Sie Ihre Technologie

Warten Sie nicht bis zum Design-Startschuss, um über eine Branchenumfrage nachzudenken – sei es, um einen Überblick über die neuesten Entwicklungen zu gewinnen oder veraltete Informationen aus früheren Projekten aufzufrischen. Anbieter einzuladen, Technologie- oder Roadmap-Updates bereitzustellen, kann eine hervorragende Möglichkeit sein, sich schnell einen Überblick zu verschaffen und die Ressourcen der Anbieter zu nutzen, um vorgeschlagene Lösungen zu konsolidieren. Dies kann Ihnen sogar einen Vorsprung bei der Wettbewerbsanalyse verschaffen. Die Unterstützung motivierter externer Partner beim Durchforsten der riesigen Industrielandschaft kann erheblich Zeit und Aufwand sparen – und das Risiko verringern, moderne (SOTA) Technologien zu verpassen. Die meisten Anbieter werden diese Gelegenheit gerne nutzen (und vielleicht sogar ein Mittagessen spendieren), um frühzeitig in potenzielle Entwicklungen eingebunden zu werden.

HINWEIS: Achten Sie immer auf die Quelle von Informationen und bewerten Sie diese kritisch. Dies unterstreicht die Bedeutung und den Wert starker, funktionierender Beziehungen zu wichtigen Anbietern und Dienstleistern. In Projekten mit hohem Risiko führt eine „Der Kunde hat immer Recht“-Mentalität nicht zwangsläufig zu den besten technischen Ergebnissen. Eine kooperative Partnerschaft, bei der ein gewisses Maß an Risiko geteilt wird, erhöht oft die Erfolgschancen für alle Beteiligten.

Planen Sie vor, während und nach dem Projekt

Planen Sie vorausschauend – vor, während und nach Abschluss eines Projekts! Nehmen Sie sich die Zeit, ein „Design-Playbook“ oder eine Sammlung von Erkenntnissen (z. B. Best Practices, Golden Nuggets usw.) durchzusehen, bevor Sie sich zu stark in die Projekt- oder Produktdefinition vertiefen. Oft werden gerade die jüngsten Probleme aus dem letzten Projekt übersehen, weil das Team unter Druck stand, das Produkt schnell auf den Markt zu bringen. Scheuen Sie sich nicht, während des Projekts mehrere Teambesprechungen einzuplanen – idealerweise einmal pro Hauptphase oder Meilenstein –, insbesondere für Überprüfungen im Bereich Design for Anything (DFx), Sicherheit/Konformität (einschließlich Stromleitungs- und elektromagnetischer Verträglichkeit, EMI) sowie Nutzererlebnis. Gerade das Nutzererlebnis verdient besondere Betonung, da ...

Das gesamte Whitepaper lesen?