Glossar
Frischen Sie Ihr Wissen auf oder entdecken Sie neue Begriffe und Definitionen rund um IoT, Hardwareentwicklung und xDSL.
A
Ein Actuator (Aktor) ist ein mechanisches Gerät, das elektrische, hydraulische oder pneumatische Energie in eine physische Bewegung umwandelt, um mechanische Systeme zu steuern oder zu bewegen. Aktoren werden häufig in Automatisierungssystemen, Robotik und industriellen Anwendungen eingesetzt, um Prozesse wie das Öffnen und Schließen von Ventilen, das Bewegen von Hebeln oder das Positionieren von Bauteilen auszuführen.
ADSL nutzt den bisher ungenutzten Frequenzbereich der Kupfer-Telefonleitungen, um digitale Daten zu übertragen, ohne den herkömmlichen Telefonservice zu beeinträchtigen. Dies wird durch die Trennung der Sprach- und Datenübertragung in unterschiedliche Frequenzbänder erreicht:
- Niederfrequenzbereich (0 - 4 kHz) für analoge Sprachübertragung.
- Hochfrequenzbereich für digitale Datenübertragung.
Analoges Schaltungsdesign ist ein Bereich der Elektronik, der sich mit der Gestaltung von Schaltungen befasst, die analoge Signale verarbeiten. Analoge Signale sind kontinuierliche Signale, die eine unendliche Anzahl von Werten innerhalb eines bestimmten Bereichs annehmen können, im Gegensatz zu digitalen Signalen, die nur diskrete Werte haben.
Design-Prozesse:
- Schaltungsanalyse: Untersuchung und Verständnis der physikalischen Prinzipien und Verhaltensweisen der Schaltung.
- Schaltungssimulation: Einsatz von Software-Tools wie SPICE (Simulation Program with Integrated Circuit Emphasis) zur Simulation und Analyse des Schaltungsverhaltens unter verschiedenen Bedingungen.
- Prototyping und Testen: Aufbau von Prototypen und Durchführung von Tests, um die tatsächliche Leistung der Schaltung zu validieren und zu optimieren.
ASIL (Automotive Safety Integrity Level) ist eine Klassifikation der ISO 26262-Norm für die funktionale Sicherheit von Straßenfahrzeugen. ASIL stuft die Risiken von Fehlfunktionen in vier Kategorien ein (ASIL A, B, C, D), wobei ASIL D das höchste Risiko darstellt.
Ziel der Dekomposition ist die Reduzierung der Komplexität und dadurch die Kosteneffizienz bei der Umsetzung von Sicherheitsmaßnahmen, indem die Sicherheitsanforderungen auf mehrere weniger kritische Komponenten verteilt werden.
B
Eine Backplane ist eine elektronische Schaltung oder ein System, das als Rückgrat für die Verbindung mehrerer Leiterplatten (PCBs - Printed Circuit Boards) dient. Sie ermöglicht die Kommunikation und Energieverteilung zwischen den verbundenen Modulen oder Karten innerhalb eines elektronischen Systems.
Grundaufbau:
- Leiterbahnen: Die Backplane besteht aus einem Leiterplattenmaterial mit eingebetteten Leitungen, die elektrische Verbindungen zwischen verschiedenen Steckplätzen (Slots) herstellen.
- Steckplätze (Slots): Diese sind so konzipiert, dass sie Erweiterungskarten aufnehmen können, die in die Backplane eingesteckt werden.
Ein Ball Grid Array (BGA) ist eine Art von Gehäuse für integrierte Schaltkreise (ICs), das zur Montage von Mikroprozessoren, Speicherchips und anderen elektronischen Komponenten auf Leiterplatten (PCBs) verwendet wird. Bei BGAs sind die Anschlusskontakte in Form von kleinen Lötbällen auf der Unterseite des Gehäuses angeordnet. Sie besitzen eine hohe Anschlussdichte, bessere thermische und elektrische Leistung sowie eine kompakte Bauform bieten. Sie erfordern jedoch präzise Montageverfahren und sorgfältige Inspektion, um ihre Zuverlässigkeit sicherzustellen. BGAs sind weit verbreitet in Anwendungen, die hohe Leistungsfähigkeit und kompakte Abmessungen erfordern, wie in Mikroprozessoren, Speicherchips und anderen komplexen integrierten Schaltkreisen.
Grundaufbau:
- IC-Gehäuse: Das Gehäuse eines BGA enthält den integrierten Schaltkreis.
- Lötbälle: Kleine Lötbälle aus Zinn oder einer Zinnlegierung befinden sich in einem Gittermuster auf der Unterseite des Gehäuses. Diese Lötbälle stellen die elektrischen Verbindungen zur Leiterplatte her.
- Substrat: Ein isolierendes Substrat, das die Lötbälle trägt und mit den internen Schaltkreisen des ICs verbunden ist.
BLE (Bluetooth Low Energy) ist eine energiesparende Variante der Bluetooth-Technologie, die für Anwendungen entwickelt wurde, bei denen eine drahtlose Kommunikation mit geringem Energieverbrauch erforderlich ist. BLE ermöglicht den Datenaustausch zwischen Geräten über kurze Distanzen und eignet sich besonders für batteriebetriebene Geräte wie Fitness-Tracker, Smartwatches, Sensoren und IoT-Geräte. Sie zeichnen sich durch geringen Energieverbrauch, kurze Verbindungszeiten und geringe geringe Kosten aus. Die typische Reichweite beträgt etwa 10-100 Meter, abhängig von den Umgebungsbedingungen und der Geräteklasse, mit Datenraten von bis zu 2 Mbps.
C
Clearance bezieht sich auf den Mindestabstand, der zwischen zwei elektrischen Leitern oder Kupferflächen auf einer Platine eingehalten werden muss. Diese Abstände sind entscheidend, um Kurzschlüsse zu vermeiden und die elektrische Isolation sicherzustellen.
Die wichtigsten Aspekte der Clearance sind:
- Elektrische Isolation: Sicherstellung, dass keine ungewollten elektrischen Verbindungen oder Überschläge zwischen benachbarten Leitern oder Pads auftreten.
- Design- und Herstellungsanforderungen: Einhaltung von Designregeln und Standards, die von der Leiterplattenhersteller und den anwendbaren Industrienormen (wie IPC-2221) vorgegeben werden.
- Spannungsklassen: Anpassung der Clearance an die Betriebsspannung der Schaltung, da höhere Spannungen größere Abstände erfordern, um Durchschlag oder Kriechströme zu verhindern.
- Leiterplattenlagen: Sicherstellung ausreichender Abstände sowohl auf einer einzelnen Lage als auch zwischen verschiedenen Lagen in einer mehrlagigen Platine.
- Umgebungsbedingungen: Berücksichtigung der Umgebungsfaktoren wie Temperatur, Feuchtigkeit und Verschmutzungsgrad, die die erforderliche Clearance beeinflussen können.
Die richtige Festlegung und Einhaltung von Clearance-Abständen ist entscheidend für die Funktionalität und Zuverlässigkeit elektronischer Schaltungen und Systeme.
CoAP (Constrained Application Protocol) ist ein speziell für eingeschränkte Umgebungen entwickeltes Anwendungsprotokoll, das in IoT (Internet of Things)-Anwendungen weit verbreitet ist. Es ermöglicht die Kommunikation zwischen Geräten mit begrenzten Ressourcen, wie etwa geringe Rechenleistung, begrenztem Speicher und eingeschränkten Netzwerkbandbreiten.
CoAP ist so konzipiert, dass es minimalen Overhead verursacht und somit für ressourcenarme Geräte geeignet ist. Ähnlich wie HTTP nutzt CoAP eine RESTful Architektur, wobei Operationen wie GET, POST, PUT und DELETE unterstützt werden. Dies erleichtert die Integration mit bestehenden Web-Technologien und -Diensten. Anstatt TCP verwendet CoAP das verbindungslose UDP-Protokoll, was zu geringeren Latenzzeiten und Overhead führt und somit besser für Netzwerke mit hohen Latenzen und Paketverlusten geeignet ist.
CoAP ermöglicht Multicast-Kommunikation, was die effiziente Verteilung von Nachrichten an mehrere Empfänger gleichzeitig erlaubt.
CoAP ist ideal für IoT-Anwendungen, bei denen Geräte oft in Netzwerken mit eingeschränkter Bandbreite und hoher Latenz operieren.
Copper Pour ist eine Technik im Leiterplattendesign, bei der größere Flächen oder Bereiche der Platine mit Kupfer gefüllt werden, anstatt nur schmale Leiterbahnen zu verwenden. Diese Kupferflächen dienen mehreren Zwecken:
- Verbesserte Erdung: Große Kupferflächen können als Erdungsfläche oder Massefläche (Ground Plane) genutzt werden, was die elektrische Performance verbessert und elektromagnetische Störungen (EMI) reduziert.
- Wärmeableitung: Kupferflächen helfen bei der Ableitung von Wärme, die durch elektronische Komponenten erzeugt wird, und verbessern so die thermische Verwaltung der Platine.
- Stromtragfähigkeit: Breitere Kupferflächen können höhere Ströme führen, was besonders in Leistungselektronik-Anwendungen wichtig ist.
- Reduktion von Materialabfall: Bei der Herstellung der Leiterplatte wird weniger Kupfer geätzt und entfernt, was den Materialverbrauch und die Produktionskosten senkt.
Copper Pour wird häufig in modernen PCB-Designs verwendet, um die elektrische und thermische Leistung der Leiterplatte zu optimieren und die Zuverlässigkeit und Effizienz des gesamten elektronischen Systems zu verbessern.
D
Design Entry, auch bekannt als Designeingabe, bezieht sich auf den Prozess oder die Methode, durch die ein Entwickler oder Designer die grundlegenden Designspezifikationen eines elektronischen Systems oder eines Schaltkreises in eine digitale Form überführt. Dieser Prozess markiert den Beginn der Entwicklungsphase, in der das Designkonzept in eine formale Darstellung umgewandelt wird, die für die weitere Verarbeitung durch Software-Tools geeignet ist.
Herausforderungen:
- Komplexität: Designs können sehr komplex sein, was präzise und detaillierte Spezifikationen erfordert.
- Integration: Design Entry erfordert oft die Integration von verschiedenen Modulen und Schnittstellen.
- Zeit- und Kostenmanagement: Effiziente Nutzung von Ressourcen und Tools, um Entwicklungszeiten und -kosten zu minimieren.
Design Implementation bezieht sich auf den Prozess, bei dem ein konzeptuelles Design oder eine spezifizierte Architektur in eine tatsächliche physische Form umgesetzt wird, die für den praktischen Einsatz oder die Produktion geeignet ist. Dieser Schritt folgt der Phase der Design-Synthese und umfasst die konkrete Realisierung der Entwurfsentscheidungen in Hardware oder Software.
Hardware-Implementierung:
- Bei der Implementierung von Hardware-Designs, wie z.B. in FPGA (Field Programmable Gate Array) oder ASIC (Application-Specific Integrated Circuit), werden die synthetisierten Schaltungen in das physikalische Layout übersetzt. Dies beinhaltet das Platzieren und Verdrahten der logischen Elemente (Gatter, Flip-Flops, etc.) auf der Chip-Oberfläche sowie die Berücksichtigung von Timing-, Signalintegritäts- und Energieverbrauchsaspekten.
Software-Implementierung:
- Für die Implementierung von Software-Designs wird der zuvor entworfene Quellcode in eine ausführbare Form übersetzt, die auf der Zielplattform oder dem Zielgerät ausgeführt werden kann. Dies umfasst die Kompilierung, Optimierung und Linking-Prozesse, um den Maschinencode zu generieren, der die spezifizierten Funktionen und Algorithmen ausführt.
Design Synthesis bezieht sich auf den Prozess der automatisierten oder halbautomatisierten Umwandlung einer abstrakten Spezifikation eines Designs in eine detaillierte Implementierung, die für die physische Realisierung oder weitere Verarbeitung durch Hardware- oder Softwarewerkzeuge geeignet ist. Dieser Schritt ist entscheidend in der Elektronik- und Softwareentwicklung, um die Spezifikationen eines Designs in eine konkrete Form zu bringen, die für die Herstellung oder Implementierung verwendet werden kann.
Prozess:
- Ausgangspunkt:
- Design Synthesis beginnt typischerweise mit einer abstrakten Beschreibung des Designs auf einer höheren Abstraktionsebene. Dies kann eine Hardwarebeschreibungssprache (HDL) wie Verilog oder VHDL für elektronische Schaltungen oder eine Programmiersprache wie C oder C++ für Software sein.
- Logische Synthese:
- Bei der logischen Synthese wird das Design auf eine niedrigere Abstraktionsebene transformiert, die oft als Register-Transfer-Ebene (RTL) bezeichnet wird. In dieser Phase werden logische Schaltungen, wie zum Beispiel Gatter und Flip-Flops, aus der funktionalen Beschreibung des Designs generiert.
- Technologie-Spezifische Synthese:
- Anschließend wird das RTL-Design in spezifische Hardware-Ressourcen übersetzt, die auf der Zielplattform oder im Zielsystem verfügbar sind. Diese Phase berücksichtigt die spezifischen Eigenschaften der verwendeten Technologie, wie zum Beispiel die Logikgatter und Speicherelemente in einem FPGA oder ASIC.
- Optimierung:
- Während des Synthese-Prozesses werden verschiedene Optimierungen durchgeführt, um das Design in Bezug auf Geschwindigkeit, Fläche (Chip-Fläche) und Leistung zu optimieren. Dies kann unter anderem die Reduktion der Verzögerungszeiten, die Minimierung des Energieverbrauchs oder die Optimierung der Chip-Fläche umfassen.
- Verifikation:
- Nach der Synthese erfolgt die Verifikation, um sicherzustellen, dass das synthetisierte Design die ursprünglichen funktionalen und nicht-funktionalen Anforderungen erfüllt. Dies beinhaltet oft umfangreiche Simulationen und Tests, um sicherzustellen, dass das Design korrekt und zuverlässig arbeitet.
DevOps ist ein Ansatz in der Softwareentwicklung, der die Zusammenarbeit und Integration von Entwicklungs- (Development) und IT-Betriebs- (Operations) Teams fördert. Ziel ist es, die Geschwindigkeit, Effizienz und Qualität des Softwareentwicklungs- und Bereitstellungsprozesses zu verbessern. DevOps umfasst eine Reihe von Prinzipien, Praktiken und Tools, die darauf abzielen, die Entwicklungszyklen zu verkürzen, die kontinuierliche Bereitstellung von Software zu ermöglichen und die Qualität und Zuverlässigkeit der Software zu erhöhen.
Die wichtigsten Merkmale und Prinzipien von DevOps sind:
- Kultur der Zusammenarbeit: Förderung einer kollaborativen Kultur, in der Entwickler und Betriebsteam eng zusammenarbeiten, um gemeinsame Ziele zu erreichen.
- Kontinuierliche Integration (CI): Regelmäßiges und automatisiertes Zusammenführen von Codeänderungen in ein gemeinsames Repository, gefolgt von automatisierten Tests, um Integrationsprobleme frühzeitig zu erkennen und zu beheben.
- Kontinuierliche Bereitstellung (CD): Automatisierung des Bereitstellungsprozesses, sodass Codeänderungen schnell und zuverlässig in Produktionsumgebungen überführt werden können.
- Automatisierung: Einsatz von Automatisierungstools für Build-, Test-, Bereitstellungs- und Infrastrukturmanagementprozesse, um Fehler zu reduzieren und die Effizienz zu steigern.
- Überwachung und Logging: Kontinuierliche Überwachung der Anwendungen und Infrastruktur sowie Protokollierung von Ereignissen, um die Systemleistung zu überwachen, Probleme zu identifizieren und schnelle Reaktionen zu ermöglichen.
- Skalierbarkeit und Flexibilität: Nutzung von Cloud-Diensten und Containerisierungstechnologien, um Anwendungen flexibel zu skalieren und Ressourcen effizient zu nutzen.
- Feedback-Schleifen: Einholen und Analysieren von Feedback aus allen Phasen des Entwicklungs- und Betriebsprozesses, um kontinuierliche Verbesserungen zu ermöglichen.
Vorteile von DevOps:
- Schnellere Markteinführung von Software
- Höhere Qualität und Zuverlässigkeit der Software
- Bessere Skalierbarkeit und Flexibilität
- Reduzierte Ausfallzeiten und schnellere Wiederherstellung
- Verbesserte Zusammenarbeit und Kommunikation zwischen Teams
Ziele dabei sind: Einfachheit im Design, montagefreundliche Gestaltung, Kostenreduktion und Qualitätsverbesserung.
DFT beinhaltet die Schaffung einfacher Testmöglichkeiten, Fehlererkennung und Diagnose und die Sicherstellung einer hohen Testabdeckung
Digital Thread bezeichnet ein durchgängiges Kommunikationsframework, das es ermöglicht, die Daten und Informationen über den gesamten Lebenszyklus eines Produkts digital zu verbinden. Dieses Konzept umfasst die Erfassung, Analyse und Nutzung von Daten aus verschiedenen Phasen der Produktentwicklung, -produktion und -nutzung. Es verknüpft Daten aus verschiedenen Systemen und Prozessen, einschließlich Design, Fertigung, Betrieb und Wartung, ermöglicht die Verfolgung und Dokumentation von Informationen und Änderungen entlang des gesamten Produktlebenszyklus und fördert die Zusammenarbeit zwischen verschiedenen Abteilungen und Stakeholdern, indem ein gemeinsamer Informationsfluss bereitgestellt wird. Gleichzeitig reduziert es Entwicklungszeiten und Kosten durch die Minimierung von Informationsverlusten und die Verbesserung der Entscheidungsfindung und ermöglicht eine schnelle Anpassung an Veränderungen im Markt oder in den Anforderungen durch einen besseren Überblick über den gesamten Produktlebenszyklus.
Der Digital Thread ist ein zentraler Bestandteil der digitalen Transformation in der Fertigungsindustrie und anderen Bereichen, da er eine nahtlose Verbindung und Integration von Daten ermöglicht, die für eine verbesserte Produktentwicklung, effizientere Produktion und nachhaltigen Betrieb erforderlich sind.
Ein Digital Twin ist ein virtuelles Modell eines physischen Objekts, Systems oder Prozesses, das dessen Eigenschaften, Verhaltensweisen und Zustände digital nachbildet. Dieses Modell wird kontinuierlich mit Echtzeitdaten aus dem physischen Gegenstück aktualisiert, um dessen Zustand und Leistung zu überwachen und zu analysieren.
Der Digital Twin wird kontinuierlich mit Daten aus Sensoren und anderen Quellen des physischen Objekts aktualisiert, um eine aktuelle und genaue Repräsentation zu gewährleisten.
Durch Simulationen und Analysen können verschiedene Szenarien und Bedingungen getestet werden, ohne das physische Objekt zu beeinflussen. Dies hilft, potenzielle Probleme zu identifizieren und zu lösen, bevor sie in der realen Welt auftreten.
Der Digital Twin ermöglicht die Vorhersage von zukünftigen Zuständen und Verhaltensweisen des physischen Objekts, was zur Optimierung von Betrieb und Wartung beiträgt.
Erfasst und verwaltet alle Phasen des Lebenszyklus eines Produkts oder Systems, von der Konstruktion und Herstellung bis zur Nutzung und Wartung.
Erleichtert die Zusammenarbeit zwischen verschiedenen Teams und Abteilungen, indem ein gemeinsames, genaues Modell des physischen Objekts bereitgestellt wird.
Liefert wertvolle Einblicke und Daten, die fundierte Entscheidungen und Strategien ermöglichen.
DRC (Design Rule Check) bezeichnet einen automatisierten Prozess im Bereich des Leiterplattendesigns und der integrierten Schaltkreisentwicklung. Dabei werden die entworfenen Layouts oder Schaltpläne auf Einhaltung der definierten Designregeln und -standards überprüft. Die Designregeln umfassen Parameter wie Mindestabstände zwischen Leiterbahnen, Mindestbreiten von Leiterbahnen, Lötstopplackabstände, Viaspezifikationen und andere Aspekte, die für die Herstellung und Zuverlässigkeit der Platine oder des Chips von Bedeutung sind. Hauptsächlich werden durch diesen Prozess Designfehler der Verletzungen der Designregeln, die potenziell zu Herstellungsproblemen oder Leistungsproblemen führen könnten identifiziert. Dies trägt auch zur Verbesserung der Effizienz und Reduzierung von Entwicklungszeiten bei.
E
- Schaltungsdesign und Simulation:
- Schaltplanerstellung: Erstellung von digitalen oder analogen Schaltplänen unter Verwendung von symbolischen Darstellungen von Bauelementen und deren Verbindungen.
- Simulation: Durchführung von Tests und Simulationen, um die Funktionalität, Leistung und Verhalten des Designs vor der physischen Umsetzung zu überprüfen.
- Physikalische Implementierung:
- Layout-Entwurf: Platzierung und Routing von Bauelementen auf einer Leiterplatte (PCB) oder einem IC, unter Berücksichtigung von Designregeln und elektrischen Eigenschaften.
- Verifikation: Überprüfung des Layouts auf elektrische und mechanische Integrität, Signalintegrität, Timing-Verletzungen und andere kritische Faktoren.
- Verifikation und Test:
- Funktionsverifikation: Gewährleistung der Korrektheit und Zuverlässigkeit des Designs durch verschiedene Tests und Verifikationsmethoden.
- Testgenerierung: Generierung von Testmustern und -programmen, um die Funktionalität und Leistungsfähigkeit des fertigen Produkts zu überprüfen.
- Systemdesign und Integration:
- System-Level-Design: Integration verschiedener Subsysteme und Module zu einem vollständigen elektronischen System.
- Co-Design: Parallelisierte Entwicklung von Hardware und Software, um die Interaktion und Integration zwischen ihnen zu optimieren.
Edge Computing ist eine dezentralisierte, verteilte Datenverarbeitungsinfrastruktur, die sich mit dem Wachstum des IoT entwickelt hat. IoT-Geräte erzeugen häufig Daten, die eine schnelle Verarbeitung und/oder Datenanalyse in Echtzeit erfordern. Während beim Cloud Computing dies über einen zentralen, cloudbasierten Standort (oft ein Rechenzentrum), der viele Kilometer vom Gerät entfernt ist gelöst wird, wird beim Edge Computing die Datenberechnung, -analyse und -speicherung näher an die Geräte, auf denen die Daten gesammelt werden gebracht. So müssen die Daten nicht mehr in die Cloud übertragen werden. Mit einer richtig konzipierten Architektur, die Hardware- und Softwarekomponenten am Edge kombiniert, können gleichzeitig die Daten gesichert werden. Da diese lokal verarbeitet und analysiert werden, ohne dass sie über große Entfernungen übertragen werden müssen, werden Sicherheitsrisiken und Datenschutzbedenken gemindert.
Embedded Linux zeichnet sich besonders durch seine Anpassbarkeit, Treiberunterstützng, Skalierbarkeit aus. Hinzu kommt, dass wie das traditionelle Linux-Betriebssystem auch Embedded Linux auf Open-Source-Software basiert. Dies ermöglicht eine hohe Flexibilität, Anpassbarkeit und die Unterstützung durch eine große Gemeinschaft von Entwicklern.
Embedded Webserver können Daten empfangen, verarbeiten und aktualisieren, die von angeschlossenen Sensoren, Geräten oder Benutzern über das Webinterface bereitgestellt werden. Sie können auch für die Steuerung und Überwachung von Systemen verwendet werden. Um die Integrität und Sicherheit der übertragenen Daten zu gewährleisten, bieten einige Embedded Webserver Funktionen wie HTTPS-Unterstützung (HTTP Secure), Authentifizierung und Verschlüsselung.
EMC (Electromagnetic Compatibility) beschreibt die Fähigkeit eines elektronischen oder elektrischen Geräts, in seiner elektromagnetischen Umgebung ohne Störungen zu funktionieren und selbst keine unzulässigen elektromagnetischen Störungen zu erzeugen. Dies bezieht sich auf die Fähigkeit eines Geräts, elektromagnetische Emissionen zu kontrollieren und gleichzeitig immun gegenüber externen elektromagnetischen Störungen zu sein.
EMC umfasst verschiedene Aspekte und Standards, darunter:
- Elektromagnetische Interferenz (EMI): Untersuchung und Steuerung der elektromagnetischen Emissionen eines Geräts.
- Elektromagnetische Verträglichkeit (EMV): Gewährleistung der Störfestigkeit eines Geräts gegenüber externen elektromagnetischen Störungen.
EMC ist besonders wichtig in Bereichen wie Telekommunikation, Elektronik, Medizintechnik, Automobilindustrie und Luft- und Raumfahrt, wo elektronische Geräte in einer Vielzahl von Umgebungen und Bedingungen zuverlässig funktionieren müssen, ohne die Funktionalität anderer Geräte zu beeinträchtigen oder beeinträchtigt zu werden.
- Mobile Computer und Smartphones
- Sensoren/Aktuatoren
- Industrielle / intelligente Fertigungssteuerungen
- Intelligente Steuerungen für Beleuchtung und Heizung
- Intelligente Kameras und Computer-Vision-Systeme
- Sicherheitssysteme
- Point-of-Sale (POS)-Terminals
ESD (Electrostatic Discharge) bezeichnet den plötzlichen Ausgleich von elektrostatischer Ladung zwischen zwei Objekten unterschiedlicher Potentiale. Dieser Entladungsprozess kann durch die Bewegung oder den Kontakt isolierender Materialien oder durch die Trennung von Materialien verursacht werden. Die Auswirkungen von ESD können auf elektronische Bauteile und Geräte beträchtlich sein, insbesondere in empfindlichen Umgebungen wie der Elektronikfertigung oder in der Handhabung von Halbleitern.
Maßnahmen zur ESD-Prävention umfassen die Verwendung von ableitfähigen Materialien, ESD-geschützte Arbeitsplätze und die richtige Erdung und Ableitung statischer Ladungen.
F
Firmware Over-The-Air (FOTA) bezeichnet einen Prozess, bei dem Firmware-Updates drahtlos über Mobilfunknetze oder andere drahtlose Verbindungen auf Geräte oder Systeme übertragen werden können. Dies ermöglicht es, die Firmware eines Geräts zu aktualisieren, ohne dass physische Zugriffe oder Verbindungen über Kabel erforderlich sind.
Die wichtigsten Merkmale von FOTA sind:
- Drahtlose Aktualisierung: Firmware-Updates werden über eine drahtlose Verbindung wie Mobilfunk (GSM, LTE) oder WLAN an das Gerät gesendet.
- Flexibilität und Effizienz: Updates können remote und gleichzeitig auf eine große Anzahl von Geräten angewendet werden, was Zeit und Kosten spart.
- Sicherheit: FOTA implementiert Sicherheitsprotokolle und Verschlüsselungstechniken, um sicherzustellen, dass die Firmware-Updates sicher und vor unbefugtem Zugriff geschützt sind.
- Versionsverwaltung: Unterstützt die Verwaltung von verschiedenen Firmware-Versionen und ermöglicht die nahtlose Aktualisierung auf die neueste Version.
FOTA wird häufig in IoT-Geräten (Internet der Dinge) eingesetzt, um sicherzustellen, dass die Geräte stets mit den neuesten Funktionen und Sicherheitspatches ausgestattet sind, ohne dass sie physisch zurückgerufen oder manuell aktualisiert werden müssen. Dies verbessert die Benutzererfahrung, Sicherheit und Zuverlässigkeit der IoT-Infrastrukturen.
Ein Footprint bezieht sich auf die spezifischen Abmessungen und Platzierungen von elektronischen Komponenten auf einer Leiterplatte (PCB). Der Footprint definiert die exakte Geometrie jedes Anschlusses und Montagepunkts für eine bestimmte elektronische Komponente. Er beinhaltet typischerweise Informationen über die Position der Anschlüsse, die Größe der Pads (Lötflächen), Abstände zwischen den Anschlüssen sowie Markierungen für die Ausrichtung und Montage der Komponente auf der Leiterplatte.
Die Hauptmerkmale eines Footprints sind:
- Dimensionen und Platzierung: Spezifische geometrische Parameter, die die korrekte Positionierung der Komponente auf der Leiterplatte sicherstellen.
- Pads und Landepunkte: Bereiche auf der Leiterplatte, die zum Löten der Anschlüsse der Komponente dienen. Diese sind so dimensioniert, dass sie die elektrischen Verbindungen sicherstellen und mechanische Stabilität bieten.
- Referenzpunkte und Markierungen: Hilfslinien oder Symbole, die die Ausrichtung und Montage der Komponente erleichtern.
Footprints werden häufig von Elektronikdesignern erstellt oder aus Bibliotheken von Footprints ausgewählt, die für verschiedene Standardkomponenten verfügbar sind. Sie sind entscheidend für die korrekte Platzierung und Verbindung elektronischer Bauteile auf der Leiterplatte und tragen dazu bei, dass das fertige Produkt zuverlässig funktioniert und den Designspezifikationen entspricht.
Field Programmable Gate Arrays (FPGAs) sind integrierte Schaltkreise, die oft als Standardprodukte verkauft werden. Sie werden als "feldprogrammierbar" bezeichnet, weil sie den Kunden die Möglichkeit bieten, die Hardware nach dem Herstellungsprozess neu zu konfigurieren, um die Anforderungen bestimmter Anwendungsfälle zu erfüllen. Auf diese Weise können Funktionserweiterungen und Fehlerbehebungen vor Ort durchgeführt werden, was besonders bei entfernten Einsätzen nützlich ist.
FPGAs enthalten konfigurierbare Logikblöcke (CLBs) und eine Reihe programmierbarer Verbindungen, die es dem Entwickler ermöglichen, Blöcke zu verbinden und sie so zu konfigurieren, dass sie alles von einfachen Logikgattern bis hin zu komplexen Funktionen ausführen. Vollständige SoC-Designs mit mehreren Prozessen können auf einem einzigen FPGA-Baustein untergebracht werden.
Als Echtzeitbetriebssystem auf Basis von Open-Source bietet es Unterstützung für eine Vielzahl von Mikrocontroller-Plattformen und Architekturen, einschließlich ARM, AVR, MSP430, PIC, und mehr. Es unterstützt preemptives Multitasking und verfügt über Mechanismen zur Synchronisation und Kommunikation zwischen Tasks. Dabei ist FreeRTOS darauf ausgelegt, mit begrenzten Ressourcen wie begrenztem Speicherplatz und CPU-Leistung effizient zu arbeiten, was es ideal für eingebettete Systeme macht. Seine häufigste Anwendung findet es in IoT, industrieller Automatisierung, medizinischen Geräten und in Fahrzeugsystemen und -steuerungen.
Dazu gehört die Berücksichtigung Folgender Aspekte: Risikobewertung, Sicherheitsanforderungen, Sicherheitsintegrität, Normen und Standards.
G
G.HN zeichnet sich vor allem durch seine Vielseitigkeit aus: es ermöglich die Nutzung verschiedener vorhandener Verkabelungstypen (Stromleitungen, Telefonleitungen, Koaxialkabel), um Hochgeschwindigkeits-Datenübertragung zu realisieren, ohne dass neue Kabel installiert werden müssen. Dabei werden Datenübertragungsraten von bis zu 1 Gbit/s und höher unterstützt. Als standardisierte Heimnetzwerk-Technologie ist G.HN darauf ausgelegt, in anspruchsvollen Umgebungen zu arbeiten und bietet Mechanismen zur Fehlerkorrektur und Interferenzunterdrückung, um eine stabile und zuverlässige Kommunikation zu gewährleisten.
Der Standard unterstützt verschiedene Netzwerkgrößen und Topologien, von kleinen Heimnetzwerken bis hin zu größeren Gebäudevernetzungen.
Full-Custom-Designs sind komplexer und kostspieliger, bieten aber im Gegenzug Chip-Flexibilität und die Möglichkeit, größere Arbeitslasten zu verarbeiten.
Ein Gateway ist ein Netzwerkgerät oder eine Softwareanwendung, die als Schnittstelle zwischen verschiedenen Netzwerken oder Kommunikationsprotokollen fungiert, um die Kompatibilität und den Datenfluss zwischen ihnen zu ermöglichen. Typischerweise dient ein Gateway als Vermittlungsstelle, die Daten von einem Netzwerkformat in ein anderes konvertiert und weiterleitet.
in Gateway übersetzt Daten von einem Netzwerkprotokoll in ein anderes, z.B. von Ethernet zu WLAN oder von IPv4 zu IPv6. Es erleichtert die Kommunikation zwischen Netzwerken mit unterschiedlichen Adressierungsschemata oder Topologien. Gateways können Daten filtern und kontrollieren, um unerwünschte oder schädliche Inhalte zu blockieren, sowie Sicherheitsprotokolle anwenden, um Netzwerke zu schützen. Es leitet Datenpakete zwischen verschiedenen Netzwerken oder Subnetzen basierend auf festgelegten Regeln und Routen weiter. In IoT-Umgebungen (Internet der Dinge) fungieren Gateways oft als zentrale Schnittstelle für die Aggregation und Weiterleitung von Daten zwischen lokalen Geräten und Cloud-Diensten.
Gerber-Dateien sind eine standardisierte Dateiformat-Sammlung, die in der Elektronikindustrie verwendet wird, um Informationen über das Design einer Leiterplatte (PCB) zu speichern und zu übertragen. Diese Dateien enthalten detaillierte Informationen über die verschiedenen Schichten, die für die Herstellung der Leiterplatte erforderlich sind, einschließlich Layout, Leiterbahnen, Pads, Vias, Lötstoppmasken, Beschriftungen und anderen Details. Jede Gerber-Datei repräsentiert eine bestimmte Schicht des PCB-Designs, wie z.B. Kupferlagen (Top Layer, Bottom Layer), Lötstoppmasken, Lötpastenschablonen, Bestückungsdruck und mechanische Layer. Die Gerber-Dateien enthalten präzise geometrische Daten über die Positionen und Formen von Leiterbahnen, Pads und anderen Elementen auf jeder Schicht der Leiterplatte.
H
Heterogenes Computing bezieht sich in der Regel auf ein System, das mehrere Arten von Rechenkernen verwendet, wie CPUs, GPUs, ASICs, FPGAs und NPUs. Durch die Zuweisung verschiedener Arbeitslasten an Prozessoren, die für bestimmte Zwecke oder eine spezielle Verarbeitung ausgelegt sind, werden Leistung und Energieeffizienz verbessert. Der Begriff „heterogenes Rechnen“ kann sich auch auf die Verwendung von Prozessoren beziehen, die auf unterschiedlichen Computerarchitekturen basieren. Dies ist ein gängiger Ansatz, wenn eine bestimmte Architektur aufgrund von Energieeffizienz, Kompatibilität oder der Anzahl der verfügbaren Kerne besser für eine bestimmte Aufgabe geeignet ist. Eine frühe und immer noch relativ verbreitete Form des heterogenen Rechnens ist die Kombination von CPU-Kernen und einer GPU (Graphics Processing Unit), die für Spiele und andere grafikintensive Anwendungen verwendet wird.
I
Impedanzkontrolle bezieht sich auf die präzise Steuerung und Anpassung des elektrischen Widerstands (Impedanz) in Leiterbahnen auf einer Leiterplatte (PCB). Dies ist besonders wichtig in Hochfrequenzanwendungen, wo genaue Impedanzwerte notwendig sind, um die Signalintegrität zu gewährleisten und unerwünschte Reflexionen und Signalverluste zu minimieren.
Designer müssen sicherstellen, dass die Breite, Dicke und Positionierung der Leiterbahnen auf der PCB so kontrolliert werden, dass die gewünschte Impedanz genau eingehalten wird.
Impedanzkontrolle ist besonders wichtig bei Hochgeschwindigkeits- und Hochfrequenzschaltungen wie in der Telekommunikation, drahtlosen Netzwerken, Radarsystemen und anderen elektronischen Geräten, die empfindlich auf Impedanzvariationen reagieren können.
In-Circuit Verification bezieht sich auf den Prozess der Überprüfung elektronischer Schaltungen oder Leiterplatten (PCBs) während der Fertigung oder Entwicklung, um sicherzustellen, dass alle elektrischen Verbindungen und Funktionen ordnungsgemäß funktionieren. Dieser Test wird typischerweise durchgeführt, indem spezielle Testpunkte auf der Leiterplatte verwendet werden, um elektrische Signale einzuführen und zu messen.
Der Test überprüft elektrische Parameter wie Spannung, Strom und Widerstand, um sicherzustellen, dass sie den Spezifikationen entsprechen.
In-Circuit-Tests können automatisiert werden, was zu einer schnellen Durchführung und einer effizienten Fehlererkennung führt.
Es werden spezifische elektronische Bauteile wie Widerstände, Kondensatoren, Dioden und ICs auf ihre korrekte Funktion und Verbindung geprüft.
In-Circuit-Tests können nahtlos in den Fertigungsprozess integriert werden, um sicherzustellen, dass alle hergestellten Produkte die Qualitätsstandards erfüllen.
Durch die Früherkennung von Fehlern kann die Notwendigkeit teurerer Nacharbeit und Reparaturen reduziert werden.
Autonome Systeme optimieren bereits die intelligente Fertigung und Lagerhaltung, einschließlich Produktionslinien und Logistik.
Die traditionelle Automatisierungspyramide hat drei Ebenen: Überwachungscomputer mit spezialisierter Software an der Spitze, die über industrielle Netzwerke kommunizieren; die Steuerungsebene mit speicherprogrammierbaren Steuerungen (SPS) für Echtzeitberechnungen; und Feldsensoren und -aktoren, die über Feldbusse mit den Steuerungen verbunden sind. Diese Ebenen verschmelzen zunehmend, was den Weg für "intelligente Fabriken" ebnet.
Die ISA ist die einzige Möglichkeit, über die ein Benutzer mit der Hardware interagieren kann. Sie kann als Handbuch für den Programmierer angesehen werden, da sie der Teil der Maschine ist, der für den Assembler-Programmierer, den Compiler-Schreiber und den Anwendungsprogrammierer sichtbar ist.
Die ISA definiert die unterstützten Datentypen, die Register, die Art und Weise, wie die Hardware den Hauptspeicher verwaltet, wichtige Funktionen (wie z. B. den virtuellen Speicher), welche Befehle ein Mikroprozessor ausführen kann, und das Eingabe-/Ausgabemodell mehrerer ISA-Implementierungen. Der ISA kann durch Hinzufügen von Befehlen oder anderen Fähigkeiten oder durch Unterstützung größerer Adressen und Datenwerte erweitert werden.
Die IPC-Normen, entwickelt durch die Association Connecting Electronics Industries (ehemals Institute for Interconnecting and Packaging Electronic Circuits), sind internationale Normen und Richtlinien, die sich auf das Design, die Herstellung, Prüfung und Montage von elektronischen Baugruppen und Produkten beziehen. Diese Normen werden von der IPC, einer globalen Handelsorganisation, die sich auf die Elektronikindustrie konzentriert, entwickelt und gewartet. Sie dienen dazu, einheitliche Standards in der Elektronikfertigung zu etablieren und zu fördern.
Typische IPC-Normen und ihre Anwendungsgebiete:
- IPC-A-600: Akzeptanzkriterien für Leiterplatten.
- IPC-A-610: Akzeptanzkriterien für elektronische Baugruppen.
- IPC-2221: Designrichtlinien für Leiterplatten.
- IPC-6012: Qualitäts- und Leistungsanforderungen an starre Leiterplatten.
- IPC-7711/7721: Reparatur- und Rework-Richtlinien für elektronische Baugruppen.
- IPC-J-STD-001: Anforderungen an Lötarbeiten und elektronische Baugruppen.
- IPC-7351: Richtlinien für die Erstellung von Bauteilbibliotheken für CAD-Systeme.
Interoperabilität beschreibt die Fähigkeit verschiedener Systeme, Produkte oder Dienste, nahtlos miteinander zu kommunizieren, zusammenzuarbeiten und Informationen auszutauschen, unabhängig von den spezifischen Implementierungsdetails oder Herstellern. Diese Interoperabilität ermöglicht es, dass heterogene Systeme effizient und effektiv zusammenarbeiten können, ohne dass spezielle Anpassungen oder Schnittstellen erforderlich sind.
Die Verwendung gemeinsamer Standards und Protokolle erleichtert die Interoperabilität zwischen verschiedenen Systemen und fördert einen reibungslosen Austausch von Daten und Informationen zwischen verschiedenen Anwendungen, Plattformen oder Geräten.
IoT Applications (Anwendungen des Internets der Dinge) beziehen sich auf die verschiedenen Nutzungsszenarien und Lösungen, bei denen vernetzte Geräte und Sensoren eingesetzt werden, auf deren Basis Aktionen auszuführen. Diese Anwendungen nutzen die Fähigkeit des IoT, physische Objekte mit dem Internet zu verbinden und sie so "intelligent" zu machen. Sie vernetzen Geräte und Sensoren, analysieren Daten in Echtzeit, automatisieren Vorgänge auf Basis dieser Analysen, überwachen und steuern diese und integrieren andere IT-Systeme und Plattformen um passende Lösungen zu finden. Zu finden sind IoT Applications heute in fast jedem Lebensbereich beispielsweise in Smart Home Systemen, in Wearables (z.B. Smartwatches), Smart Cities, in Automobilanwendungen oder in der Landwirtschaft.
IoT Devices sind dabei die physischen Komponenten des IoT, die Daten erfassen und Aktionen ausführen, während IoT Applications sind die softwarebasierten Lösungen, die diese Daten nutzen, um nützliche Funktionen bereitzustellen, Prozesse zu steuern und Automatisierungen zu ermöglichen.
IoT-Geräte sind Hardwareteile wie Sensoren, Aktoren, Gadgets, Geräte oder Maschinen, die für bestimmte Anwendungen programmiert sind und Daten über das Internet oder andere Netzwerke übertragen können. Sie können in andere mobile Geräte, Industrieausrüstungen, Umweltsensoren, medizinische Geräte und mehr eingebettet werden.
IoT Devices sind also die physischen Komponenten des IoT, die Daten erfassen und Aktionen ausführen, während IoT Applications sind die softwarebasierten Lösungen, die diese Daten nutzen, um nützliche Funktionen bereitzustellen, Prozesse zu steuern und Automatisierungen zu ermöglichen.
Die Sicherheit von IoT-Geräten muss Systeme, Netzwerke und Daten vor einem breiten Spektrum von IoT-Sicherheitsangriffen schützen, die auf vier Arten von Schwachstellen abzielen:
- Kommunikationsangriffe auf die zwischen IoT-Geräten und Servern übertragenen Daten
- Lebenszyklus-Angriffe auf das IoT-Gerät, wenn es vom Benutzer zur Wartung übergeht
- Angriffe auf die Gerätesoftware
- Physische Angriffe, die direkt auf den Chip im Gerät abzielen
J
K
L
Low Power Wide Area Network (LPWAN) bezeichnet ein drahtloses Netzwerkprotokoll, das für die Kommunikation von batteriebetriebenen Geräten über große Entfernungen bei niedrigem Energieverbrauch optimiert ist. Diese Netzwerke ermöglichen es, dass IoT-Geräte (Internet der Dinge) über lange Zeiträume hinweg Daten übertragen können, ohne dass häufige Batteriewechsel erforderlich sind.
Geräte, die LPWAN nutzen, können in der Regel mit einer einzigen Batterieladung für mehrere Jahre oder sogar Jahrzehnte betrieben werden, da sie nur geringe Energiemengen für die Datenübertragung benötigen.
Durch die Nutzung vorhandener Infrastrukturen wie Mobilfunkmasten können LPWAN-Netzwerke kostengünstig implementiert und betrieben werden.
Typische Anwendungen für LPWAN sind Smart Metering, Asset Tracking, Umweltüberwachung, Smart Cities und landwirtschaftliche Überwachung, wo eine zuverlässige und langfristige Datenübertragung bei minimalem Energieverbrauch erforderlich ist.
M
M2M (Machine-to-Machine) bezeichnet die direkte Kommunikation zwischen Geräten, Maschinen oder Systemen ohne menschliche Interaktion. Dabei tauschen diese Geräte automatisch Daten aus, um bestimmte Aufgaben auszuführen oder Informationen zu übertragen, ohne dass menschliche Eingriffe erforderlich sind.
M2M ermöglicht es, dass Geräte und Maschinen miteinander kommunizieren und Daten austauschen, um Prozesse zu automatisieren und zu optimieren. Die Kommunikation zwischen den Geräten erfolgt häufig in Echtzeit, um aktuelle Informationen zu übertragen und sofortige Reaktionen oder Steuerungen zu ermöglichen. Die Übertragung erfolgt über drahtlose oder kabelgebundene Netzwerke, einschließlich Mobilfunknetze, WLAN, Ethernet und andere IoT-Netzwerke.
Ein Mesh-Netzwerk ist ein dezentrales Netzwerk, das aus mehreren miteinander verbundenen Knoten besteht, die untereinander kommunizieren können, um Daten von einem Punkt zum anderen weiterzuleiten. Jeder Knoten im Netzwerk fungiert sowohl als Sender als auch als Empfänger und unterstützt die Weiterleitung von Datenpaketen für andere Knoten im Netzwerk.
Mesh-Netzwerke sind selbstheilend, was bedeutet, dass sie automatisch Routen um defekte oder gestörte Knoten herum finden können, um die Konnektivität und die Datenübertragung aufrechtzuerhalten.
Durch die Vielzahl von Verbindungen und Routen zwischen den Knoten bieten Mesh-Netzwerke Redundanz, was bedeutet, dass mehrere Pfade für die Datenübertragung verfügbar sind. Dies erhöht die Zuverlässigkeit und Ausfallsicherheit des Netzwerks.
Die flexible Architektur von Mesh-Netzwerken ermöglicht es, dass sie in verschiedenen Umgebungen eingesetzt werden können, einschließlich städtischer Bereiche, Unternehmen, Industrieautomation, Smart Homes und Sensornetzwerken.
Microvias sind kleine Durchkontaktierungen oder Bohrungen in Leiterplatten (PCBs), die verwendet werden, um eine höhere Packungsdichte und bessere Leistungseigenschaften zu erreichen. Im Vergleich zu herkömmlichen Durchkontaktierungen haben Microvias einen deutlich kleineren Durchmesser, typischerweise weniger als 150 Mikrometer. Sie werden verwendet, um Verbindungen zwischen den Schichten einer mehrschichtigen Leiterplatte herzustellen, wodurch Platz gespart und die Signalleistung verbessert wird. Microvias werden üblicherweise durch Laserbohren oder chemisches Ätzen hergestellt und sind ein wichtiges Merkmal in der High-Density-Interconnect (HDI)-Technologie für moderne Elektronikgeräte.
MQTT (Message Queuing Telemetry Transport) ist ein leichtgewichtiges, offenes Netzwerkprotokoll, das für die Übertragung von Nachrichten zwischen Geräten in Netzwerken mit begrenzter Bandbreite und/oder instabilen Verbindungen optimiert ist.
MQTT ist darauf ausgelegt, mit minimalem Overhead zu arbeiten, was es besonders für IoT (Internet of Things) Anwendungen geeignet macht, wo Ressourcen wie Bandbreite und Energie begrenzt sind.
Nachrichtenorientiert: MQTT ermöglicht es, Nachrichten zwischen einem Sender und einem oder mehreren Empfängern auszutauschen. Die Kommunikation erfolgt über ein Publish-Subscribe-Modell, bei dem Geräte als Publisher (Sender von Nachrichten) oder Subscriber (Empfänger von Nachrichten) fungieren können.
Zuverlässige Zustellung: MQTT unterstützt Quality of Service (QoS)-Level, die die Zuverlässigkeit der Nachrichtenübertragung steuern. QoS-Level reichen von 0 (nur einmalige Zustellung) bis 2 (garantierte Zustellung).
Session-basiert: MQTT kann eine Verbindung zwischen einem Client und einem Server aufrechterhalten, wobei die Sitzungszustände durch sogenannte "Session States" verwaltet werden. Dies ermöglicht es, Nachrichtenempfänger zu identifizieren, die während einer Verbindungsunterbrechung offline waren.
Flexibilität und Erweiterbarkeit: MQTT unterstützt eine Vielzahl von Szenarien und ist durch Erweiterungen anpassbar. Es bietet auch Mechanismen wie das Last Will Testament (LWT), um festzulegen, was geschieht, wenn ein Client unerwartet die Verbindung beendet.
Sicherheit: MQTT kann durch verschiedene Sicherheitsmechanismen wie TLS (Transport Layer Security) verschlüsselt werden, um die Integrität und Vertraulichkeit der übertragenen Daten zu gewährleisten.
N
Eine Netlist ist eine abstrakte Darstellung eines elektronischen Schaltkreises in Form einer Liste von Verbindungen zwischen elektronischen Komponenten wie Widerständen, Transistoren, Kondensatoren und anderen Bauelementen. Sie werden verwendet, um elektronische Schaltkreise zu simulieren, zu analysieren und zu entwerfen. Sie dienen als Eingabe für Layout-Tools, die die tatsächliche physische Anordnung der Komponenten auf einer Leiterplatte oder einem integrierten Schaltkreis bestimmen. Es gibt verschiedene Formate und Sprachen zur Darstellung von Netlists, wie z.B. SPICE (Simulation Program with Integrated Circuit Emphasis), Verilog, VHDL und andere spezialisierte Formate, die von elektronischen Design-Automationstools verwendet werden.
O
P
Ein Padstack bezieht sich auf eine spezifische geometrische Konfiguration von Pads auf Leiterplatten oder integrierten Schaltkreisen (ICs). Pads sind metallisierte Flächen oder Punkte auf einer Leiterplatte, die dazu dienen, elektrische Verbindungen herzustellen, beispielsweise durch Löten von elektronischen Bauteilen oder durch Kontaktierung mit anderen Leiterbahnen. Padstacks sind entscheidend für den Designprozess von Leiterplatten und ICs, da sie die Grundlage für die Platzierung und den Kontakt von elektronischen Bauteilen bilden. Sie beeinflussen direkt die Zuverlässigkeit, die elektrische Performance und die Herstellbarkeit des Endprodukts.
- Eigenschaften:
- Material: Der Kern von PCF besteht aus Glas, das von einem Kunststoffmantel umgeben ist, der als Schutz und zur Unterstützung der Faser dient.
- Anwendung: PCF wird für ähnliche Anwendungen wie herkömmliche Glasfasern verwendet, bietet jedoch möglicherweise eine verbesserte mechanische Robustheit durch den Kunststoffmantel.
- Vorteile: Kombination der Vorteile von Glasfasern (geringe Dämpfung, hohe Bandbreite) mit zusätzlicher mechanischer Stabilität und Flexibilität durch den Kunststoffmantel.
Penetrationstests, oft auch als Penetrationstests oder Ethical Hacking bezeichnet, sind gezielte Sicherheitsüberprüfungen von IT-Systemen, Netzwerken oder Anwendungen, um Schwachstellen zu identifizieren, die von potenziellen Angreifern ausgenutzt werden könnten. Ziel ist es, die Sicherheit der getesteten Systeme zu bewerten und Verbesserungsvorschläge für die Sicherheitsmaßnahmen zu entwickeln. Es wird zwischen externen (testen der Sicherheit von öffentlich zugänglichen Systemen oder Netzwerken aus dem Internet) und internen (Simulation von Angriffen durch autorisierte Benutzer innerhalb des Netzwerks, um die Auswirkungen von internen Bedrohungen zu bewerten) Tests unterscheiden. Dabei wird der Fokus auf Sicherheitslücken und Schwachstellen in webbasierten Anwendungen und Diensten und die physischen Sicherheitsmaßnahmen eines Unternehmens gelegt.
Product Lifecycle Management (PLM) ist ein strategischer Ansatz zur Verwaltung des gesamten Lebenszyklus eines Produkts von der Konzeption über die Entwicklung und Produktion bis hin zur Nutzung, Wartung und Entsorgung. PLM umfasst sowohl technische als auch geschäftsbezogene Aspekte, die darauf abzielen, die Produktentwicklung und -verwaltung effizienter und effektiver zu gestalten.
Dieser Prozess ist in verschiedene Phasen und Aufgabenbereiche unterteilt:
- Konzept und Entwicklung: PLM beginnt mit der Ideengenerierung und dem Konzeptentwurf eines Produkts. Es beinhaltet die Erstellung von Spezifikationen, Designkonzepten und Machbarkeitsstudien.
- Design und Engineering: PLM umfasst die detaillierte Konstruktion und technische Entwicklung des Produkts. Dies beinhaltet CAD (Computer-Aided Design), CAM (Computer-Aided Manufacturing) und CAE (Computer-Aided Engineering), um das Produkt zu modellieren, zu simulieren und zu optimieren.
- Produktionsplanung und -steuerung: PLM deckt die Planung und Steuerung des Produktionsprozesses ab, einschließlich der Materialbeschaffung, Fertigung, Qualitätssicherung und Logistik.
- Dokumentation und Compliance: PLM stellt sicher, dass alle erforderlichen Dokumentationen wie technische Zeichnungen, Spezifikationen, Prüfberichte und Zertifizierungen ordnungsgemäß verwaltet werden. Es unterstützt auch die Einhaltung gesetzlicher und regulatorischer Anforderungen.
- Vertrieb und Service: PLM umfasst auch den Vertrieb, die Vermarktung und den Kundendienst des Produkts während seiner gesamten Lebensdauer. Dies beinhaltet die Verwaltung von Ersatzteilen, Garantien, Reparaturen und Upgrades.
- End-of-Life-Management: PLM berücksichtigt auch das End-of-Life-Management eines Produkts, einschließlich Recycling, Entsorgung und Rückgewinnung von Materialien.
- Integration von Prozessen und Systemen: PLM integriert oft verschiedene geschäftliche und technische Prozesse sowie Systeme wie ERP (Enterprise Resource Planning), CRM (Customer Relationship Management) und PDM (Product Data Management).
POF (Polymer Optical Fiber) ist eine Art optischer Faser, bei der der Kern und der Mantel aus transparentem Kunststoff bestehen, typischerweise aus PMMA (Polymethylmethacrylat).
- Material: Der Kern von POF besteht aus PMMA oder anderen transparenten Polymeren, die eine geringere Lichtleitungseffizienz im Vergleich zu Glasfaser bieten, aber einfacher zu handhaben und zu verarbeiten sind.
- Anwendung: POF wird häufig in kurzen Distanzen eingesetzt, wie in Heimnetzwerken, industriellen Anwendungen und Beleuchtungssystemen.
- Vorteile: Flexibilität, einfache Installation, Widerstandsfähigkeit gegenüber Biegen und Brechen im Vergleich zu Glasfasern.
Power Integrity (PI) bezieht sich auf die Fähigkeit eines elektronischen Systems oder einer Leiterplatte, eine stabile und rauscharme Stromversorgung für alle darin enthaltenen elektronischen Komponenten sicherzustellen. Es umfasst das Management und die Optimierung der Stromversorgung, um sicherzustellen, dass die Spannung und der Strom, die an die Komponenten geliefert werden, frei von Störungen und Interferenzen sind. Ein wichtiges Element zur Verbesserung der PI sind Entkopplungskondensatoren, die in der Nähe von leistungshungrigen Komponenten platziert werden, um Hochfrequenzstörungen zu absorbieren und Spannungsschwankungen zu glätten.
Power Integrity ist besonders wichtig in Hochgeschwindigkeits- und Hochleistungsanwendungen wie Mikroprozessoren, digitalen Signalverarbeitungssystemen, Kommunikationstechnologien und anderen elektronischen Geräten, die eine zuverlässige und stabile Stromversorgung erfordern, um korrekt zu funktionieren.
Q
R
Bei RISC setzt eine Zentraleinheit (CPU) das Prinzip vereinfachter Befehle um, die weniger, aber schneller ausgeführt werden können. Das Ergebnis ist eine verbesserte Leistung. Ein wesentliches Merkmal von RISC ist, dass es Entwicklern ermöglicht, den Registersatz zu vergrößern und die interne Parallelität zu erhöhen, indem die Anzahl der von der CPU ausgeführten parallelen Threads erhöht und die Geschwindigkeit der von der CPU ausgeführten Befehle gesteigert wird.
S
Dieser Prozess umfasst: Komponentenauswahl, Berechnungen und Simulationen, Prototyping, Validierung und Optimierung.
Schematic Capture bezeichnet den Prozess des Erstellens eines elektronischen Schaltplans mittels computergestützter Werkzeuge. Dieser Schaltplan dient als grafische Darstellung eines elektronischen Systems oder einer Schaltung und zeigt die Verbindungen zwischen verschiedenen elektronischen Komponenten wie Widerständen, Transistoren, Kondensatoren und ICs.
Die Software bietet eine Bibliothek mit vordefinierten Symbolen für gängige elektronische Bauteile. Diese Symbole repräsentieren die elektrischen Eigenschaften und Funktionen der Bauteile und vereinfachen die Erstellung des Schaltplans. Der erstellte Schaltplan dient als Grundlage für weitere Designphasen wie das PCB-Layout (Printed Circuit Board), bei dem die Platzierung und Verbindung der Komponenten auf der Leiterplatte festgelegt werden.
SHDSL (Single-pair High-speed Digital Subscriber Line) ist eine DSL-Technologie (Digital Subscriber Line), die für die Bereitstellung symmetrischer Datenübertragungsraten über herkömmliche Kupfer-Telefonleitungen entwickelt wurde. Im Gegensatz zu anderen DSL-Technologien, die asymmetrische Übertragungsraten bieten (wie ADSL, bei dem die Download-Geschwindigkeit höher ist als die Upload-Geschwindigkeit), bietet SHDSL identische Upload- und Download-Geschwindigkeiten, was es ideal für Geschäftsanwendungen wie VPNs, Video-Conferencing, Voice over IP (VoIP) und andere Anwendungen macht, die eine gleichmäßige Bandbreite benötigen. SHDSL kann über längere Entfernungen stabil arbeiten und unterstützt verschiedene Konfigurationsmöglichkeiten, einschließlich der Nutzung eines oder mehrerer Kupferdrahtpaare, um unterschiedliche Bandbreitenanforderungen zu erfüllen.
Signal Integrity (SI) bezieht sich auf die Fähigkeit eines elektronischen Systems, elektrische Signale effektiv und zuverlässig von einem Punkt zum anderen zu übertragen, ohne dass dabei unerwünschte Verzerrungen oder Degradationen auftreten. SI ist ein Schlüsselelement für die Gewährleistung einer korrekten und fehlerfreien Datenübertragung in Hochgeschwindigkeits- und Hochfrequenzschaltungen.
SI betrifft die Reduzierung von Signalverlusten und Dämpfungen während der Übertragung. Diese können durch Widerstände, Leitungsverluste, Materialimpedanzen und andere Faktoren verursacht werden.
SI umfasst die Minimierung von Reflexionen an den Signalübergängen und die Gewährleistung einer richtigen Impedanzanpassung zwischen den Komponenten und Übertragungsmedien. Reflexionen können Signaldegradationen und Interferenzen verursachen.
SI bezieht sich auf die Kontrolle und Minimierung von Rauschen und elektromagnetischen Störungen (EMI/EMC), die die Integrität der übertragenen Signale beeinträchtigen können. Dies umfasst Maßnahmen wie Entstörung, Schirmung und Layoutoptimierung.
Silkscreen, auch bekannt als Siebdruck, bezieht sich auf eine gedruckte Schicht auf der Oberfläche einer Leiterplatte oder eines elektronischen Baugruppenträgers. Diese Schicht dient hauptsächlich der Beschriftung und Kennzeichnung von Komponenten, Anschlüssen, Leiterbahnen und anderen wichtigen Merkmalen auf der Leiterplatte.
Die Silkscreen-Schicht enthält typischerweise Text, Symbole, Referenzbezeichnungen und andere grafische Elemente, die zur Identifizierung und zum Verständnis der Komponenten und der Leiterplatte selbst dienen. Dies erleichtert die Montage, den Betrieb und die Wartung des elektronischen Systems. Die Beschriftungen auf der Silkscreen-Schicht sind präzise um die tatsächlichen Komponenten und Anschlüsse positioniert, was Ingenieuren und Technikern hilft, die richtigen Bauteile an den richtigen Stellen zu platzieren und zu verbinden.
Neben der Identifikation von Komponenten kann die Silkscreen-Schicht auch andere nützliche Informationen enthalten, wie z.B. Firmenlogos, Herstellerdaten, Sicherheitshinweise oder Betriebstemperaturen.
Ein Smart Grid (intelligentes Stromnetz) ist ein modernisiertes Stromnetz, das fortschrittliche Technologien und Kommunikationsinfrastrukturen nutzt, um effizienter, zuverlässiger, nachhaltiger und kosteneffizienter zu sein. Es ist eine Weiterentwicklung des traditionellen Stromnetzes, das durch die Integration digitaler Technologien und intelligenter Steuerungssysteme optimiert wird.
Sie unterstützen die Integration von erneuerbaren Energiequellen wie Solar- und Windenergie. Sie optimieren die Nutzung dieser dezentralen Energiequellen und gleichen Schwankungen in der Stromerzeugung aus.
Smart Grids ermöglichen ein intelligentes Lastmanagement, indem sie Energieverbrauch und -produktion in Echtzeit überwachen und ausgleichen. Sie fördern auch Demand-Response-Programme, bei denen Verbraucher ihre Energieverbrauchsmuster anpassen können, um die Netzstabilität zu verbessern und mehr Tansparenz zu gewährleisten.
Smart Grids verbessern die Sicherheit und Zuverlässigkeit des Stromnetzes durch die Implementierung fortschrittlicher Schutz- und Sicherheitsmaßnahmen sowie durch die Redundanz von Energiequellen und Übertragungswegen.
Durch die Förderung einer nachhaltigen Energieerzeugung und -nutzung tragen Smart Grids zur Reduzierung der Umweltbelastung und zur Unterstützung langfristiger Nachhaltigkeitsziele bei.
Ein SoC (System-on-a-Chip) ist ein vollständiges Verarbeitungssystem in einem einzigen Gehäuse, das mehrere Verarbeitungsteile enthält. Zu den Hauptkomponenten eines SoC gehören in der Regel eine zentrale Verarbeitungseinheit, Speicher, Eingangs- und Ausgangsanschlüsse, periphere Schnittstellen und sekundäre Speichergeräte.
Der SoC integriert alle Komponenten auf dem Schaltkreis und ist daher fest kodiert, während beim traditionellen Motherboard-Ansatz Erweiterungskarten zur Integration verschiedener Komponenten verwendet werden.
Für Entwickler, die neue Produkte entwickeln wollen, sind SoCs von der Stange erhältlich. Diese können für viele Produkte die beste Option sein, aber sie haben auch ihre Grenzen. Komponenten von der Stange schränken die Möglichkeit ein, das Produkt in Schlüsselbereichen wie Preis, Funktionsumfang, Größe und Zuverlässigkeit zu differenzieren. Deshalb ist ein kundenspezifischer Chip oft die bessere Wahl. Die Entwicklung eines kundenspezifischen Chips erforderte früher erhebliche Investitionen und war Produkten vorbehalten, bei denen große Stückzahlen zu erwarten waren. Heute jedoch machen der Zugang zu geistigem Eigentum und kostengünstige Lösungen die Entwicklung kundenspezifischer Chips zu einer praktikablen Option.
Eine Stitching Via (auch bekannt als "Stitch Via" oder "Stitching Hole") ist ein Begriff aus dem Bereich der Leiterplattentechnik und bezeichnet eine spezielle Art von durchkontaktierter Bohrung oder Loch, das verwendet wird, um unterschiedliche elektrische Lagen (Layers) einer Leiterplatte miteinander elektrisch zu verbinden. Der Begriff "Stitching" deutet darauf hin, dass diese Vias dazu dienen, Verbindungen zwischen verschiedenen Lagen zu "nähen" oder zu "versticken". Insbesondere bei Hochgeschwindigkeitsschaltungen und Hochfrequenzanwendungen helfen Stitching Vias, die Impedanzen zwischen den Lagen zu reduzieren und eine gleichmäßigere Signalintegrität sicherzustellen.
Stitching Vias können auch verwendet werden, um elektromagnetische Interferenzen (EMI) zu reduzieren, indem sie die Strompfade zwischen den Lagen optimieren und den Stromfluss für eine bessere Erdung oder Entstörung ermöglichen.
In komplexen Designs werden Stitching Vias oft durch Simulation und Analyse optimiert, um sicherzustellen, dass sie die spezifischen Anforderungen an Signalintegrität und elektrische Performance erfüllen.
T
Telemetry bezieht sich auf den Prozess der Erfassung, Messung und Übertragung von Daten über entfernte oder schwer zugängliche Objekte oder Phänomene. Es handelt sich um eine Technik, die in verschiedenen Bereichen wie der Luft- und Raumfahrt, der Medizin, der Umweltüberwachung, der Fahrzeugtechnik und der Telekommunikation eingesetzt wird, um wichtige Informationen in Echtzeit zu sammeln und zu analysieren.
Telemetry ermöglicht die kontinuierliche Echtzeitüberwachung und Erfassung von Daten wie Temperatur, Druck, Geschwindigkeit, Position, Beschleunigung und anderen physikalischen Parametern, ohne dass direkter physischer Zugang erforderlich ist.
Die gesammelten Daten werden drahtlos oder über Kabelverbindungen übertragen, normalerweise zu einer zentralen Steuerstation oder einem Empfangsgerät, das die Informationen analysiert, speichert und gegebenenfalls Maßnahmen ergreift.
Ein Thermal Via ist eine spezielle Art von Durchkontaktierung (Via) in einer Leiterplatte, die primär dazu dient, Wärme von einer Schicht der Leiterplatte zur anderen zu leiten und zu verteilen. Dies geschieht durch die Verwendung von Kupferdurchkontaktierungen, die eine verbesserte Wärmeableitung ermöglichen, insbesondere in Bereichen mit hoher thermischer Belastung.
Thermal Vias dienen dazu, Wärme von Komponenten oder Bereichen auf der Leiterplatte abzuleiten, die eine erhöhte Wärmeentwicklung aufweisen, wie zum Beispiel Leistungstransistoren, Spannungsregler oder Hochleistungsbauteile. Sie verbinden thermische Pads oder Wärmesenken auf verschiedenen Schichten der Leiterplatte miteinander. Dadurch wird die Wärme effizient über mehrere Lagen verteilt und abgeführt.
In komplexen Designs werden Thermal Vias oft durch Simulation und Analyse optimiert, um sicherzustellen, dass sie die erforderliche thermische Leistungsfähigkeit bieten und potenzielle Wärmeengpässe vermeiden.
Thermal Vias sind also besonders wichtig in Leiterplattendesigns für elektronische Geräte mit hoher Leistungsdichte oder hoher Wärmeerzeugung. Sie helfen, die Betriebstemperaturen zu kontrollieren, die Lebensdauer von elektronischen Komponenten zu verlängern und die Zuverlässigkeit des gesamten Systems zu verbessern.
Der Begriff Trace bezeichnet eine leitende Verbindung oder eine Leiterbahn auf der Oberfläche einer Leiterplatte. Traces dienen dazu, elektrische Signale zwischen verschiedenen Komponenten und Bauteilen auf der Leiterplatte zu leiten und zu übertragen.
Traces bestehen aus Kupferbahnen oder -leitungen, die auf die Oberfläche der Leiterplatte aufgetragen werden. Sie übertragen elektrische Signale, Spannungen und Ströme zwischen den verschiedenen Komponenten wie ICs (Integrated Circuits), Widerständen, Kondensatoren und anderen Bauteilen. In mehrschichtigen Leiterplatten können Traces auf verschiedenen Lagen (Layers) verlaufen. Inter-Layer-Vias dienen dazu, Traces zwischen den Lagen zu verbinden und die elektrische Kontinuität sicherzustellen.
Traces spielen eine entscheidende Rolle bei der Aufrechterhaltung der Signalintegrität in Hochgeschwindigkeits- und Hochfrequenzschaltungen. Dies umfasst die Minimierung von Signalverlusten, Verzerrungen und elektromagnetischen Störungen (EMI).
U
Diese vernetzten Geräte können kommunizieren und intelligent reagieren, um Dienste für verschiedene Anwendungen bereitzustellen. Eine intelligente Stadt kann beispielsweise kontextbezogene Datenverarbeitung einsetzen, um Videoüberwachung, Verkehrssysteme und Geschäfte miteinander zu verbinden, um den Verkehr und Staus auf den Straßen und in Einkaufszentren zu reduzieren. Durch das Sammeln und Analysieren von Umgebungsdaten können Ubiquitäres Computing-Umgebungen nahtlose, intelligente und relevante Erfahrungen liefern.
V
Im Bereich der Leiterplatten bezeichnen Via eine Durchkontaktierung oder ein Loch, das durch die gesamte Dicke einer Leiterplatte verläuft und verschiedene Lagen (Layers) der Leiterplatte elektrisch miteinander verbindet. Vias spielen eine entscheidende Rolle bei der Übertragung elektrischer Signale, der Stromversorgung und der Wärmeableitung innerhalb von Leiterplatten.
Arten von Vias:
- Through-Hole Vias: Durchgehende Vias, die von der Oberseite bis zur Unterseite der Leiterplatte reichen.
- Blind Vias: Vias, die nur eine oder einige Lagen der Leiterplatte durchqueren und nicht die gesamte Dicke.
- Buried Vias: Vias, die vollständig zwischen den inneren Lagen der Leiterplatte liegen und nicht an der Oberfläche sichtbar sind.
Vias leiten Signale zwischen den Lagen einer Leiterplatte, was besonders wichtig ist, um die Dichte von Schaltungen zu erhöhen und Platz zu sparen. Sie tragen auch die elektrische Energie von einer Schicht zur anderen, um Komponenten auf der Leiterplatte mit Strom zu versorgen. Spezielle Vias wie Thermal Vias dienen dazu, Wärme von heißen Komponenten abzuleiten und über verschiedene Lagen der Leiterplatte zu verteilen.
Vias werden in einem PCB-Design (Printed Circuit Board) strategisch platziert, um optimale elektrische Performance und thermische Effizienz zu gewährleisten. Die Platzierung und Größe der Vias werden entsprechend den Anforderungen des Designs und den Spezifikationen der Komponenten festgelegt.
W
X
xDSL ist ein Sammelbegriff für verschiedene Breitbandübertragungstechnologien, die digitale Subscriber Lines (DSL) nutzen, um hohe Datenübertragungsraten über herkömmliche Kupferleitungen zu ermöglichen. Der Buchstabe "x" steht dabei für "any" oder "various", da es verschiedene Varianten von DSL gibt, die unter dieser Kategorie zusammengefasst werden.
Typische Varianten sind:
- ADSL (Asymmetric DSL): Optimiert für ungleichmäßige Datenübertragungsraten, wobei die Downstream-Geschwindigkeit (zum Benutzer) höher ist als die Upstream-Geschwindigkeit (vom Benutzer).
- VDSL (Very High Speed DSL): Bietet noch höhere Geschwindigkeiten als ADSL, insbesondere bei kurzen Entfernungen zwischen dem Benutzer und dem Verteilerpunkt (FTTC - Fiber to the Curb).
- VDSL2: Eine Weiterentwicklung von VDSL, die durch Techniken wie Vectoring und Bonding verbesserte Leistung und Stabilität bietet.
- SDSL (Symmetric DSL): Bietet symmetrische Datenübertragungsraten für Upstream und Downstream, was besonders für Unternehmen und Anwendungen wie Videoübertragung wichtig ist.
- HDSL (High bit-rate DSL): Eine symmetrische DSL-Variante, die höhere Geschwindigkeiten als ADSL bei symmetrischen Übertragungsraten bietet.
- SHDSL (Symmetrical High-bit-rate DSL): Bietet symmetrische Datenübertragungsraten für sowohl den Upload als auch den Download und hauptsächlich für Geschäftsanwendungen verwendet wird, die gleich hohe Bandbreiten in beide Richtungen erfordern.