Frischen Sie Ihr Wissen auf oder entdecken Sie neue Begriffe und Definitionen rund um IoT, Hardwareentwicklung und xDSL.

A

Actuator

Ein Actuator (Aktor) ist ein mechanisches Gerät, das elektrische, hydraulische oder pneumatische Energie in eine physische Bewegung umwandelt, um mechanische Systeme zu steuern oder zu bewegen. Aktoren werden häufig in Automatisierungssystemen, Robotik und industriellen Anwendungen eingesetzt, um Prozesse wie das Öffnen und Schließen von Ventilen, das Bewegen von Hebeln oder das Positionieren von Bauteilen auszuführen.

ADSL
ADSL ist eine Art von DSL (Digital Subscriber Line)-Technologie, die eine asymmetrische Datenübertragung über herkömmliche Kupfer-Telefonleitungen ermöglicht. Der Begriff "asymmetrisch" bezieht sich darauf, dass die Datenübertragungsrate im Download (vom Internet zum Benutzer) höher ist als die Upload-Rate (vom Benutzer zum Internet).
ADSL nutzt den bisher ungenutzten Frequenzbereich der Kupfer-Telefonleitungen, um digitale Daten zu übertragen, ohne den herkömmlichen Telefonservice zu beeinträchtigen. Dies wird durch die Trennung der Sprach- und Datenübertragung in unterschiedliche Frequenzbänder erreicht:
  • Niederfrequenzbereich (0 - 4 kHz) für analoge Sprachübertragung.
  • Hochfrequenzbereich für digitale Datenübertragung.
Analoges Schaltungsdesign

Analoges Schaltungsdesign ist ein Bereich der Elektronik, der sich mit der Gestaltung von Schaltungen befasst, die analoge Signale verarbeiten. Analoge Signale sind kontinuierliche Signale, die eine unendliche Anzahl von Werten innerhalb eines bestimmten Bereichs annehmen können, im Gegensatz zu digitalen Signalen, die nur diskrete Werte haben.

Design-Prozesse:

  • Schaltungsanalyse: Untersuchung und Verständnis der physikalischen Prinzipien und Verhaltensweisen der Schaltung.
  • Schaltungssimulation: Einsatz von Software-Tools wie SPICE (Simulation Program with Integrated Circuit Emphasis) zur Simulation und Analyse des Schaltungsverhaltens unter verschiedenen Bedingungen.
  • Prototyping und Testen: Aufbau von Prototypen und Durchführung von Tests, um die tatsächliche Leistung der Schaltung zu validieren und zu optimieren.
ASIC
Ein anwendungsspezifischer integrierter Schaltkreis ist ein integrierter Schaltkreis (IC), der speziell für eine bestimmte Aufgabe oder Anwendung entwickelt wurde. Im Gegensatz zu FPGA-Karten, die nach der Herstellung so programmiert werden können, dass sie eine Vielzahl von Anwendungsanforderungen erfüllen, werden ASIC-Designs bereits in einem frühen Stadium des Entwurfsprozesses auf die spezifischen Anforderungen zugeschnitkkuten. Die beiden wichtigsten ASIC-Designmethoden sind Gate-Array und Full-Custom.
ASIL-Dekomposition
ASIL-Dekomposition ist eine strategische Methode zur Verbesserung der funktionalen Sicherheit und Kosteneffizienz in der Automobilentwicklung. Durch die Aufteilung komplexer Systeme in weniger kritische Teilfunktionen können Sicherheitsanforderungen effizienter und kostengünstiger umgesetzt werden, wobei die Gesamtsicherheit des Systems gewährleistet bleibt.
ASIL (Automotive Safety Integrity Level) ist eine Klassifikation der ISO 26262-Norm für die funktionale Sicherheit von Straßenfahrzeugen. ASIL stuft die Risiken von Fehlfunktionen in vier Kategorien ein (ASIL A, B, C, D), wobei ASIL D das höchste Risiko darstellt.
Ziel der Dekomposition ist die Reduzierung der Komplexität und dadurch die  Kosteneffizienz bei der Umsetzung von Sicherheitsmaßnahmen, indem die Sicherheitsanforderungen auf mehrere weniger kritische Komponenten verteilt werden.

B

Backplanes

Eine Backplane ist eine elektronische Schaltung oder ein System, das als Rückgrat für die Verbindung mehrerer Leiterplatten (PCBs - Printed Circuit Boards) dient. Sie ermöglicht die Kommunikation und Energieverteilung zwischen den verbundenen Modulen oder Karten innerhalb eines elektronischen Systems.

Grundaufbau:

  • Leiterbahnen: Die Backplane besteht aus einem Leiterplattenmaterial mit eingebetteten Leitungen, die elektrische Verbindungen zwischen verschiedenen Steckplätzen (Slots) herstellen.
  • Steckplätze (Slots): Diese sind so konzipiert, dass sie Erweiterungskarten aufnehmen können, die in die Backplane eingesteckt werden.
BGAs

Ein Ball Grid Array (BGA) ist eine Art von Gehäuse für integrierte Schaltkreise (ICs), das zur Montage von Mikroprozessoren, Speicherchips und anderen elektronischen Komponenten auf Leiterplatten (PCBs) verwendet wird. Bei BGAs sind die Anschlusskontakte in Form von kleinen Lötbällen auf der Unterseite des Gehäuses angeordnet. Sie besitzen eine hohe Anschlussdichte, bessere thermische und elektrische Leistung sowie eine kompakte Bauform bieten. Sie erfordern jedoch präzise Montageverfahren und sorgfältige Inspektion, um ihre Zuverlässigkeit sicherzustellen. BGAs sind weit verbreitet in Anwendungen, die hohe Leistungsfähigkeit und kompakte Abmessungen erfordern, wie in Mikroprozessoren, Speicherchips und anderen komplexen integrierten Schaltkreisen.

Grundaufbau:

  • IC-Gehäuse: Das Gehäuse eines BGA enthält den integrierten Schaltkreis.
  • Lötbälle: Kleine Lötbälle aus Zinn oder einer Zinnlegierung befinden sich in einem Gittermuster auf der Unterseite des Gehäuses. Diese Lötbälle stellen die elektrischen Verbindungen zur Leiterplatte her.
  • Substrat: Ein isolierendes Substrat, das die Lötbälle trägt und mit den internen Schaltkreisen des ICs verbunden ist.
BLE

BLE (Bluetooth Low Energy) ist eine energiesparende Variante der Bluetooth-Technologie, die für Anwendungen entwickelt wurde, bei denen eine drahtlose Kommunikation mit geringem Energieverbrauch erforderlich ist. BLE ermöglicht den Datenaustausch zwischen Geräten über kurze Distanzen und eignet sich besonders für batteriebetriebene Geräte wie Fitness-Tracker, Smartwatches, Sensoren und IoT-Geräte. Sie zeichnen sich durch geringen Energieverbrauch, kurze Verbindungszeiten und geringe geringe Kosten aus. Die typische Reichweite beträgt etwa 10-100 Meter, abhängig von den Umgebungsbedingungen und der Geräteklasse, mit Datenraten von bis zu 2 Mbps.

Blind Via
Ein Blind Via ist eine Art von Durchkontaktierung (Via) in mehrlagigen Leiterplatten (PCBs), die eine elektrische Verbindung zwischen einer äußeren Schicht und einer oder mehreren inneren Schichten herstellt, ohne die gesamte Platine zu durchdringen. Diese Art der Via endet innerhalb der Leiterplatte und ist daher von der gegenüberliegenden äußeren Schicht nicht sichtbar. Blind Vias ermöglichen eine höhere Packungsdichte und verbesserte Designflexibilität, indem sie mehr Platz auf der Leiterplatte für andere Komponenten und Leiterbahnen freigeben.
Buried Via
Ein Buried Via ist eine Art von Durchkontaktierung (Via) in mehrlagigen Leiterplatten (PCBs), die elektrische Verbindungen ausschließlich zwischen inneren Schichten der Leiterplatte herstellt, ohne die äußeren Schichten zu durchdringen. Diese Vias sind vollständig innerhalb der Struktur der Leiterplatte verborgen und sind von außen nicht sichtbar. Buried Vias tragen zur Erhöhung der Packungsdichte und zur Optimierung des Leiterplattendesigns bei, indem sie zusätzliche Platzierungsmöglichkeiten für Leiterbahnen und Komponenten auf den äußeren Schichten schaffen.
Burn-in Test
Ein Burn-in Test ist ein Zuverlässigkeitstest, bei dem elektronische Geräte oder Komponenten über einen längeren Zeitraum unter extremen Betriebsbedingungen (wie hoher Temperatur, hoher Spannung oder intensiver Nutzung) betrieben werden, um frühe Ausfälle zu identifizieren und die langfristige Zuverlässigkeit zu gewährleisten. Dieser Test wird oft verwendet, um Schwachstellen oder potenzielle Fehler in der Hardware aufzudecken, die während des normalen Betriebs auftreten könnten, und um sicherzustellen, dass die Geräte in ihrer tatsächlichen Einsatzumgebung zuverlässig funktionieren.

C

CAN
CAN (Controller Area Network) ist ein serielles Bussystem, das ursprünglich für die Kommunikation zwischen Steuergeräten in Kraftfahrzeugen entwickelt wurde. Heutzutage wird CAN jedoch auch in anderen Bereichen eingesetzt, wie z.B. in der Industrieautomation und anderen eingebetteten Anwendungen, wo zuverlässige und robuste Kommunikation zwischen verschiedenen Geräten erforderlich ist. CAN ermöglicht eine zuverlässige Datenübertragung über lange Kabelstrecken (bis zu mehreren hundert Metern) mit hohen Datenraten (typischerweise bis zu 1 Mbit/s). Die Kommunikation erfolgt differenziell, wodurch eine hohe Störfestigkeit und Immunität gegenüber elektromagnetischen Interferenzen gewährleistet wird. Es gibt keinen zentralen Master; stattdessen verwendet CAN eine dezentrale Arbitrierungsmethode, um Konflikte zwischen Nachrichten zu lösen.
Clearance

Clearance bezieht sich auf den Mindestabstand, der zwischen zwei elektrischen Leitern oder Kupferflächen auf einer Platine eingehalten werden muss. Diese Abstände sind entscheidend, um Kurzschlüsse zu vermeiden und die elektrische Isolation sicherzustellen.

Die wichtigsten Aspekte der Clearance sind:

  • Elektrische Isolation: Sicherstellung, dass keine ungewollten elektrischen Verbindungen oder Überschläge zwischen benachbarten Leitern oder Pads auftreten.
  • Design- und Herstellungsanforderungen: Einhaltung von Designregeln und Standards, die von der Leiterplattenhersteller und den anwendbaren Industrienormen (wie IPC-2221) vorgegeben werden.
  • Spannungsklassen: Anpassung der Clearance an die Betriebsspannung der Schaltung, da höhere Spannungen größere Abstände erfordern, um Durchschlag oder Kriechströme zu verhindern.
  • Leiterplattenlagen: Sicherstellung ausreichender Abstände sowohl auf einer einzelnen Lage als auch zwischen verschiedenen Lagen in einer mehrlagigen Platine.
  • Umgebungsbedingungen: Berücksichtigung der Umgebungsfaktoren wie Temperatur, Feuchtigkeit und Verschmutzungsgrad, die die erforderliche Clearance beeinflussen können.

Die richtige Festlegung und Einhaltung von Clearance-Abständen ist entscheidend für die Funktionalität und Zuverlässigkeit elektronischer Schaltungen und Systeme.

Cloud Native
Cloud Native ist ein Ansatz zur Entwicklung und Ausführung von Anwendungen, der darauf ausgelegt ist, die unbegrenzte Rechenleistung der Cloud nach Bedarf zu nutzen und die Skalierbarkeit, Elastizität, Belastbarkeit und Flexibilität der Cloud auszuschöpfen. Cloud Native Anwendungen sind darauf ausgelegt, in dynamischen, verteilten Umgebungen zu arbeiten, die durch Cloud-Plattformen ermöglicht werden. Cloud Native Applications bestehen aus unabhängigen, diskreten und wiederverwendbaren und unabhägig skalierbaren Microservices, die für die Integration in jede Cloud-Umgebung konzipiert sind. Anwendungen werden nach einem kontinuierlichen Bereitstellungsmodell ausgeführt und dynamisch in der Cloud verwaltet. Dadurch kann schnell auf Marktveränderungen reagiert und innovative Lösungen bereitgestellt werden.
CoAP

CoAP (Constrained Application Protocol) ist ein speziell für eingeschränkte Umgebungen entwickeltes Anwendungsprotokoll, das in IoT (Internet of Things)-Anwendungen weit verbreitet ist. Es ermöglicht die Kommunikation zwischen Geräten mit begrenzten Ressourcen, wie etwa geringe Rechenleistung, begrenztem Speicher und eingeschränkten Netzwerkbandbreiten.

CoAP ist so konzipiert, dass es minimalen Overhead verursacht und somit für ressourcenarme Geräte geeignet ist. Ähnlich wie HTTP nutzt CoAP eine RESTful Architektur, wobei Operationen wie GET, POST, PUT und DELETE unterstützt werden. Dies erleichtert die Integration mit bestehenden Web-Technologien und -Diensten. Anstatt TCP verwendet CoAP das verbindungslose UDP-Protokoll, was zu geringeren Latenzzeiten und Overhead führt und somit besser für Netzwerke mit hohen Latenzen und Paketverlusten geeignet ist.

CoAP ermöglicht Multicast-Kommunikation, was die effiziente Verteilung von Nachrichten an mehrere Empfänger gleichzeitig erlaubt.

CoAP ist ideal für IoT-Anwendungen, bei denen Geräte oft in Netzwerken mit eingeschränkter Bandbreite und hoher Latenz operieren.

Computational Storage
Computational Storage ist ein Konzept in der Informationstechnologie, bei dem Rechenkapazitäten direkt auf Speichermedien integriert werden, um Effizienz in der Datenverarbeitung und -speicherung zu steigern. Dies ermöglicht die Ausführung von Rechenoperationen direkt auf dem Speichergerät, wodurch Datenbewegungen minimiert und die Gesamtsystemleistung verbessert werden. Die Verarbeitung findet auf dem Speichergerät statt, und nur die gewünschten Ergebnisse werden an den Server gesendet. Da ein Gerät Controller und zusätzlichen Speicher verwendet, um Daten in der Speicherebene zu verarbeiten, müssen die Daten nicht zwischen der Speicher- und der Datenverarbeitungsebene hin- und herübertragen oder zur Analyse zwischen verschiedenen Standorten verschoben werden.
Computer Vision
Computer Vision  ist ein Bereich der künstlichen Intelligenz und der Informatik, der sich mit der automatisierten Verarbeitung von Bildern und Videos beschäftigt. Ziel ist es, Computern das Sehvermögen ähnlich wie dem menschlichen Auge zu verleihen, damit sie visuelle Informationen interpretieren, analysieren und verstehen können. Zu den verschiedenen Arten der Computer Vision gehören Bildsegmentierung, Objekterkennung, Gesichtserkennung, Kantenerkennung, Mustererkennung, Bildklassifizierung und Merkmalsabgleich.
Connected Devices
Connected Devices, auch bekannt als vernetzte Geräte oder IoT-Geräte (Internet of Things), beziehen sich auf physische Geräte oder Gegenstände, die über das Internet oder andere Netzwerke miteinander verbunden sind, um Daten auszutauschen und miteinander zu kommunizieren. Diese Geräte können Sensoren, Aktoren, Computer oder andere physische Objekte sein, die mit eingebetteten Technologien wie Verarbeitungschips, Software und Sensoren ausgestattet sind. Sie sammeln Daten und tauschen sie mit anderen Geräten und Systemen aus. Vernetzte Geräte werden in der Regel aus der Ferne überwacht und gesteuert. Sie verbinden sich über verschiedene drahtgebundene und drahtlose Netzwerke und Protokolle wie WiFi, NFC, 3G- und 4G-Netzwerke mit dem Internet und untereinander.
Copper Pour

Copper Pour ist eine Technik im Leiterplattendesign, bei der größere Flächen oder Bereiche der Platine mit Kupfer gefüllt werden, anstatt nur schmale Leiterbahnen zu verwenden. Diese Kupferflächen dienen mehreren Zwecken:

  • Verbesserte Erdung: Große Kupferflächen können als Erdungsfläche oder Massefläche (Ground Plane) genutzt werden, was die elektrische Performance verbessert und elektromagnetische Störungen (EMI) reduziert.
  • Wärmeableitung: Kupferflächen helfen bei der Ableitung von Wärme, die durch elektronische Komponenten erzeugt wird, und verbessern so die thermische Verwaltung der Platine.
  • Stromtragfähigkeit: Breitere Kupferflächen können höhere Ströme führen, was besonders in Leistungselektronik-Anwendungen wichtig ist.
  • Reduktion von Materialabfall: Bei der Herstellung der Leiterplatte wird weniger Kupfer geätzt und entfernt, was den Materialverbrauch und die Produktionskosten senkt.

Copper Pour wird häufig in modernen PCB-Designs verwendet, um die elektrische und thermische Leistung der Leiterplatte zu optimieren und die Zuverlässigkeit und Effizienz des gesamten elektronischen Systems zu verbessern.

CPLD
Ein CPLD (Complex Programmable Logic Device) ist ein integrierter Schaltkreis, der zur Implementierung digitaler Logikfunktionen und zur Realisierung von programmierbaren Logikarrays verwendet wird. CPLDs gehören zur Familie der programmierbaren Logikgeräte und bieten eine höhere Komplexität und Funktionalität im Vergleich zu einfachen PLDs (Programmable Logic Devices) wie PALs (Programmable Array Logic) und GALs (Generic Array Logic). Sie bestehen aus  Logikblöcken, Makrozellen und programmierbaren Verbindungen.
CPU
Die CPU (Central Processing Unit) ist der zentrale Prozessor oder Hauptprozessor eines Computersystems. Sie ist ein elektronisches Bauteil, das für die Ausführung von Anweisungen und die Verarbeitung von Daten innerhalb eines Computers verantwortlich ist. Die CPU wird auch als "Gehirn" des Computers bezeichnet, da sie die Hauptkomponente ist, die für die Ausführung von Programmen und die Steuerung der gesamten Hardware zuständig ist.

D

Design Entry

Design Entry, auch bekannt als Designeingabe, bezieht sich auf den Prozess oder die Methode, durch die ein Entwickler oder Designer die grundlegenden Designspezifikationen eines elektronischen Systems oder eines Schaltkreises in eine digitale Form überführt. Dieser Prozess markiert den Beginn der Entwicklungsphase, in der das Designkonzept in eine formale Darstellung umgewandelt wird, die für die weitere Verarbeitung durch Software-Tools geeignet ist.

Herausforderungen:

  • Komplexität: Designs können sehr komplex sein, was präzise und detaillierte Spezifikationen erfordert.
  • Integration: Design Entry erfordert oft die Integration von verschiedenen Modulen und Schnittstellen.
  • Zeit- und Kostenmanagement: Effiziente Nutzung von Ressourcen und Tools, um Entwicklungszeiten und -kosten zu minimieren.
Design Implementation

Design Implementation bezieht sich auf den Prozess, bei dem ein konzeptuelles Design oder eine spezifizierte Architektur in eine tatsächliche physische Form umgesetzt wird, die für den praktischen Einsatz oder die Produktion geeignet ist. Dieser Schritt folgt der Phase der Design-Synthese und umfasst die konkrete Realisierung der Entwurfsentscheidungen in Hardware oder Software.

Hardware-Implementierung:

  • Bei der Implementierung von Hardware-Designs, wie z.B. in FPGA (Field Programmable Gate Array) oder ASIC (Application-Specific Integrated Circuit), werden die synthetisierten Schaltungen in das physikalische Layout übersetzt. Dies beinhaltet das Platzieren und Verdrahten der logischen Elemente (Gatter, Flip-Flops, etc.) auf der Chip-Oberfläche sowie die Berücksichtigung von Timing-, Signalintegritäts- und Energieverbrauchsaspekten.

 

Software-Implementierung:

  • Für die Implementierung von Software-Designs wird der zuvor entworfene Quellcode in eine ausführbare Form übersetzt, die auf der Zielplattform oder dem Zielgerät ausgeführt werden kann. Dies umfasst die Kompilierung, Optimierung und Linking-Prozesse, um den Maschinencode zu generieren, der die spezifizierten Funktionen und Algorithmen ausführt.
Design Synthesis

Design Synthesis bezieht sich auf den Prozess der automatisierten oder halbautomatisierten Umwandlung einer abstrakten Spezifikation eines Designs in eine detaillierte Implementierung, die für die physische Realisierung oder weitere Verarbeitung durch Hardware- oder Softwarewerkzeuge geeignet ist. Dieser Schritt ist entscheidend in der Elektronik- und Softwareentwicklung, um die Spezifikationen eines Designs in eine konkrete Form zu bringen, die für die Herstellung oder Implementierung verwendet werden kann.

Prozess:

  • Ausgangspunkt:
    • Design Synthesis beginnt typischerweise mit einer abstrakten Beschreibung des Designs auf einer höheren Abstraktionsebene. Dies kann eine Hardwarebeschreibungssprache (HDL) wie Verilog oder VHDL für elektronische Schaltungen oder eine Programmiersprache wie C oder C++ für Software sein.
  • Logische Synthese:
    • Bei der logischen Synthese wird das Design auf eine niedrigere Abstraktionsebene transformiert, die oft als Register-Transfer-Ebene (RTL) bezeichnet wird. In dieser Phase werden logische Schaltungen, wie zum Beispiel Gatter und Flip-Flops, aus der funktionalen Beschreibung des Designs generiert.
  • Technologie-Spezifische Synthese:
    • Anschließend wird das RTL-Design in spezifische Hardware-Ressourcen übersetzt, die auf der Zielplattform oder im Zielsystem verfügbar sind. Diese Phase berücksichtigt die spezifischen Eigenschaften der verwendeten Technologie, wie zum Beispiel die Logikgatter und Speicherelemente in einem FPGA oder ASIC.
  • Optimierung:
    • Während des Synthese-Prozesses werden verschiedene Optimierungen durchgeführt, um das Design in Bezug auf Geschwindigkeit, Fläche (Chip-Fläche) und Leistung zu optimieren. Dies kann unter anderem die Reduktion der Verzögerungszeiten, die Minimierung des Energieverbrauchs oder die Optimierung der Chip-Fläche umfassen.
  • Verifikation:
    • Nach der Synthese erfolgt die Verifikation, um sicherzustellen, dass das synthetisierte Design die ursprünglichen funktionalen und nicht-funktionalen Anforderungen erfüllt. Dies beinhaltet oft umfangreiche Simulationen und Tests, um sicherzustellen, dass das Design korrekt und zuverlässig arbeitet.
Device Programming
Device Programming bezieht sich auf den Prozess, bei dem ein programmierbares elektronisches Gerät, wie z.B. ein Mikrocontroller, ein FPGA (Field Programmable Gate Array) oder ein ASIC (Application-Specific Integrated Circuit), mit einem spezifischen Programm oder einer Firmware versehen wird, damit es die gewünschten Funktionen ausführen kann. Dieser Prozess erfolgt nach der Herstellung des Geräts und ist entscheidend, um es funktionsfähig zu machen und seine Aufgaben zu erfüllen.
DevOps

DevOps ist ein Ansatz in der Softwareentwicklung, der die Zusammenarbeit und Integration von Entwicklungs- (Development) und IT-Betriebs- (Operations) Teams fördert. Ziel ist es, die Geschwindigkeit, Effizienz und Qualität des Softwareentwicklungs- und Bereitstellungsprozesses zu verbessern. DevOps umfasst eine Reihe von Prinzipien, Praktiken und Tools, die darauf abzielen, die Entwicklungszyklen zu verkürzen, die kontinuierliche Bereitstellung von Software zu ermöglichen und die Qualität und Zuverlässigkeit der Software zu erhöhen.

Die wichtigsten Merkmale und Prinzipien von DevOps sind:

  1. Kultur der Zusammenarbeit: Förderung einer kollaborativen Kultur, in der Entwickler und Betriebsteam eng zusammenarbeiten, um gemeinsame Ziele zu erreichen.
  2. Kontinuierliche Integration (CI): Regelmäßiges und automatisiertes Zusammenführen von Codeänderungen in ein gemeinsames Repository, gefolgt von automatisierten Tests, um Integrationsprobleme frühzeitig zu erkennen und zu beheben.
  3. Kontinuierliche Bereitstellung (CD): Automatisierung des Bereitstellungsprozesses, sodass Codeänderungen schnell und zuverlässig in Produktionsumgebungen überführt werden können.
  4. Automatisierung: Einsatz von Automatisierungstools für Build-, Test-, Bereitstellungs- und Infrastrukturmanagementprozesse, um Fehler zu reduzieren und die Effizienz zu steigern.
  5. Überwachung und Logging: Kontinuierliche Überwachung der Anwendungen und Infrastruktur sowie Protokollierung von Ereignissen, um die Systemleistung zu überwachen, Probleme zu identifizieren und schnelle Reaktionen zu ermöglichen.
  6. Skalierbarkeit und Flexibilität: Nutzung von Cloud-Diensten und Containerisierungstechnologien, um Anwendungen flexibel zu skalieren und Ressourcen effizient zu nutzen.
  7. Feedback-Schleifen: Einholen und Analysieren von Feedback aus allen Phasen des Entwicklungs- und Betriebsprozesses, um kontinuierliche Verbesserungen zu ermöglichen.

Vorteile von DevOps:

  • Schnellere Markteinführung von Software
  • Höhere Qualität und Zuverlässigkeit der Software
  • Bessere Skalierbarkeit und Flexibilität
  • Reduzierte Ausfallzeiten und schnellere Wiederherstellung
  • Verbesserte Zusammenarbeit und Kommunikation zwischen Teams
DFA
DFA, oder Design for Assembly (Entwurf für die Montage), ist ein Konzept im Designprozess, das darauf abzielt, die Montageeffizienz eines Produkts zu maximieren und die Montagekosten zu minimieren. Ziel ist es, Produkte zu entwerfen, die einfach und effizient zusammengebaut werden können, ohne unnötige Komplexität oder zusätzliche Arbeitsschritte.
Ziele dabei sind: Einfachheit im Design, montagefreundliche Gestaltung, Kostenreduktion und Qualitätsverbesserung.
DFM
DFM, oder Design for Manufacturing (Entwurf für die Fertigung), bezieht sich auf eine Methodik im Designprozess, die darauf abzielt, die Herstellbarkeit eines Produkts zu optimieren. Ziel ist es, sicherzustellen, dass das entworfene Produkt effizient, kostengünstig und mit hoher Qualität in der Massenproduktion hergestellt werden kann. Ziele sind daher also: Optimierung des Designs, Fehlervermeidung und Qualitätsverbesserung, Kostenreduktion und Zeitersparnis. Mit der Integration von fortschrittlichen Technologien wie Künstlicher Intelligenz und Big Data Analytics können DFM-Praktiken weiter optimiert werden, um schnellere und kostengünstigere Produktionszyklen zu ermöglichen.
DFT
DFT, oder Design for Testability (Entwurf für die Testbarkeit), bezieht sich auf Designpraktiken und Methoden, die darauf abzielen, die Testbarkeit eines elektronischen Systems oder einer Schaltung während der Entwicklung und Produktion zu verbessern. Das Hauptziel von DFT ist es, sicherzustellen, dass das Design leicht und effizient getestet werden kann, um Fehler frühzeitig zu erkennen und die Zuverlässigkeit des fertigen Produkts zu gewährleisten.
DFT beinhaltet die Schaffung einfacher Testmöglichkeiten, Fehlererkennung und Diagnose und die Sicherstellung einer hohen Testabdeckung
Digital Thread

Digital Thread bezeichnet ein durchgängiges Kommunikationsframework, das es ermöglicht, die Daten und Informationen über den gesamten Lebenszyklus eines Produkts digital zu verbinden. Dieses Konzept umfasst die Erfassung, Analyse und Nutzung von Daten aus verschiedenen Phasen der Produktentwicklung, -produktion und -nutzung. Es verknüpft Daten aus verschiedenen Systemen und Prozessen, einschließlich Design, Fertigung, Betrieb und Wartung, ermöglicht die Verfolgung und Dokumentation von Informationen und Änderungen entlang des gesamten Produktlebenszyklus und fördert die Zusammenarbeit zwischen verschiedenen Abteilungen und Stakeholdern, indem ein gemeinsamer Informationsfluss bereitgestellt wird. Gleichzeitig reduziert es Entwicklungszeiten und Kosten durch die Minimierung von Informationsverlusten und die Verbesserung der Entscheidungsfindung und ermöglicht eine schnelle Anpassung an Veränderungen im Markt oder in den Anforderungen durch einen besseren Überblick über den gesamten Produktlebenszyklus.

Der Digital Thread ist ein zentraler Bestandteil der digitalen Transformation in der Fertigungsindustrie und anderen Bereichen, da er eine nahtlose Verbindung und Integration von Daten ermöglicht, die für eine verbesserte Produktentwicklung, effizientere Produktion und nachhaltigen Betrieb erforderlich sind.

Digital Twin

Ein Digital Twin ist ein virtuelles Modell eines physischen Objekts, Systems oder Prozesses, das dessen Eigenschaften, Verhaltensweisen und Zustände digital nachbildet. Dieses Modell wird kontinuierlich mit Echtzeitdaten aus dem physischen Gegenstück aktualisiert, um dessen Zustand und Leistung zu überwachen und zu analysieren.

Der Digital Twin wird kontinuierlich mit Daten aus Sensoren und anderen Quellen des physischen Objekts aktualisiert, um eine aktuelle und genaue Repräsentation zu gewährleisten.

Durch Simulationen und Analysen können verschiedene Szenarien und Bedingungen getestet werden, ohne das physische Objekt zu beeinflussen. Dies hilft, potenzielle Probleme zu identifizieren und zu lösen, bevor sie in der realen Welt auftreten.

Der Digital Twin ermöglicht die Vorhersage von zukünftigen Zuständen und Verhaltensweisen des physischen Objekts, was zur Optimierung von Betrieb und Wartung beiträgt.

Erfasst und verwaltet alle Phasen des Lebenszyklus eines Produkts oder Systems, von der Konstruktion und Herstellung bis zur Nutzung und Wartung.

Erleichtert die Zusammenarbeit zwischen verschiedenen Teams und Abteilungen, indem ein gemeinsames, genaues Modell des physischen Objekts bereitgestellt wird.

Liefert wertvolle Einblicke und Daten, die fundierte Entscheidungen und Strategien ermöglichen.

Digitales Schaltungsdesign
Digitales Schaltungsdesign bezieht sich auf den Prozess der Entwicklung und Implementierung von Schaltungen und Systemen, die digitale Signale und Logik verwenden. Diese Schaltungen bestehen aus digitalen Bauelementen wie Logikgattern, Flip-Flops, Multiplexern und Speichern, die miteinander verbunden sind, um komplexe Funktionen auszuführen. Unter Verwendung diditaler Bauelemente und unter Berücksichtigung der richtigen Synchronisation und Timing können komplexe Funktionen ausgeführt und kombiniert werden. Moderne digitale Schaltungen werden optimiert, um hohe Geschwindigkeiten bei der Datenverarbeitung zu erreichen und gleichzeitig den Energieverbrauch zu minimieren.
DRC

DRC (Design Rule Check) bezeichnet einen automatisierten Prozess im Bereich des Leiterplattendesigns und der integrierten Schaltkreisentwicklung. Dabei werden die entworfenen Layouts oder Schaltpläne auf Einhaltung der definierten Designregeln und -standards überprüft. Die Designregeln umfassen Parameter wie Mindestabstände zwischen Leiterbahnen, Mindestbreiten von Leiterbahnen, Lötstopplackabstände, Viaspezifikationen und andere Aspekte, die für die Herstellung und Zuverlässigkeit der Platine oder des Chips von Bedeutung sind. Hauptsächlich werden durch diesen Prozess Designfehler der Verletzungen der Designregeln, die potenziell zu Herstellungsproblemen oder Leistungsproblemen führen könnten identifiziert. Dies trägt auch zur Verbesserung der Effizienz und Reduzierung von Entwicklungszeiten bei.

Druckgussteile
Druckgussteile sind Komponenten, die durch ein spezielles Herstellungsverfahren namens Druckguss hergestellt werden. Dieses Verfahren wird verwendet, um metallische Teile mit komplexen Geometrien und hoher Präzision in großen Stückzahlen herzustellen. Druckguss ermöglicht die Herstellung komplexer Geometrien in hoher Präzision und aus vielfältigen Materialein, vorrangig Aluminium, Zink, Magnesium, (Kupfer-) Legierungen. Vor allem in der Massenproduktion zeichnet sich dieses Verfahren durch seine Wirtschaftlichkeit aus.

E

EDA
Electronic Design Automation (EDA) bezieht sich auf den Einsatz von spezialisierten Softwarewerkzeugen und -systemen zur Automatisierung verschiedener Designprozesse in der Elektronikindustrie. EDA-Software hat das manuelle Design von Leiterplatten und Halbleitern weitgehend durch automatisierte, standardisierte Prozesse ersetzt, die eine schnelle Entwicklung ermöglichen und gleichzeitig Bugs, Defekte und andere Designfehler minimieren. Dieser Vorgang umfasst eine Vielzahl von Designaspekten und -schritten, die typischerweise in den folgenden Kategorien organisiert sind:
  • Schaltungsdesign und Simulation:
    • Schaltplanerstellung: Erstellung von digitalen oder analogen Schaltplänen unter Verwendung von symbolischen Darstellungen von Bauelementen und deren Verbindungen.
    • Simulation: Durchführung von Tests und Simulationen, um die Funktionalität, Leistung und Verhalten des Designs vor der physischen Umsetzung zu überprüfen.
  • Physikalische Implementierung:
    • Layout-Entwurf: Platzierung und Routing von Bauelementen auf einer Leiterplatte (PCB) oder einem IC, unter Berücksichtigung von Designregeln und elektrischen Eigenschaften.
    • Verifikation: Überprüfung des Layouts auf elektrische und mechanische Integrität, Signalintegrität, Timing-Verletzungen und andere kritische Faktoren.
  • Verifikation und Test:
    • Funktionsverifikation: Gewährleistung der Korrektheit und Zuverlässigkeit des Designs durch verschiedene Tests und Verifikationsmethoden.
    • Testgenerierung: Generierung von Testmustern und -programmen, um die Funktionalität und Leistungsfähigkeit des fertigen Produkts zu überprüfen.
  • Systemdesign und Integration:
    • System-Level-Design: Integration verschiedener Subsysteme und Module zu einem vollständigen elektronischen System.
    • Co-Design: Parallelisierte Entwicklung von Hardware und Software, um die Interaktion und Integration zwischen ihnen zu optimieren.
Edge Computing

Edge Computing ist eine dezentralisierte, verteilte Datenverarbeitungsinfrastruktur, die sich mit dem Wachstum des IoT entwickelt hat. IoT-Geräte erzeugen häufig Daten, die eine schnelle Verarbeitung und/oder Datenanalyse in Echtzeit erfordern. Während beim Cloud Computing dies über einen zentralen, cloudbasierten Standort (oft ein Rechenzentrum), der viele Kilometer vom Gerät entfernt ist gelöst wird, wird beim Edge Computing  die Datenberechnung, -analyse und -speicherung näher an die Geräte, auf denen die Daten gesammelt werden gebracht. So müssen die Daten nicht mehr in die Cloud übertragen werden. Mit einer richtig konzipierten Architektur, die Hardware- und Softwarekomponenten am Edge kombiniert, können gleichzeitig die Daten gesichert werden. Da diese lokal verarbeitet und analysiert werden, ohne dass sie über große Entfernungen übertragen werden müssen, werden Sicherheitsrisiken und Datenschutzbedenken gemindert.

Embedded Linux
Embedded Linux bezeichnet eine Variante des Linux-Betriebssystems, das speziell für den Einsatz in eingebetteten Systemen optimiert ist. Eingebettete Systeme sind spezialisierte Computer-Systeme, die in Geräte oder Maschinen integriert sind, um bestimmte Funktionen auszuführen. Embedded Linux bietet eine flexible und leistungsstarke Plattform für diese Systeme, indem es viele der Vorteile des traditionellen Linux-Betriebssystems in einer angepassten Form bereitstellt.
Embedded Linux zeichnet sich besonders durch seine Anpassbarkeit, Treiberunterstützng, Skalierbarkeit aus. Hinzu kommt, dass wie das traditionelle Linux-Betriebssystem auch Embedded Linux auf Open-Source-Software basiert. Dies ermöglicht eine hohe Flexibilität, Anpassbarkeit und die Unterstützung durch eine große Gemeinschaft von Entwicklern.
Embedded TCP/IP-Stacks
Embedded TCP/IP-Stacks sind Software-Implementierungen des TCP/IP-Protokollstapels, die speziell für den Einsatz in eingebetteten Systemen optimiert sind. TCP/IP steht für Transmission Control Protocol/Internet Protocol und bildet die Grundlage der Kommunikation in Netzwerken, die das Internet nutzen. Eingebettete TCP/IP-Stacks sind darauf ausgelegt, die Funktionalität und die Kommunikationsfähigkeiten von eingebetteten Systemen zu erweitern, indem sie ihnen ermöglichen, Daten über Netzwerke zu senden und zu empfangen.
Embedded Webserver
Ein Embedded Webserver ist eine Softwarekomponente oder Anwendung, die speziell für den Einsatz in eingebetteten Systemen entwickelt wurde und die Fähigkeit besitzt, HTTP-Anforderungen zu empfangen, zu verarbeiten und entsprechende HTTP-Antworten zu senden. Der Embedded Webserver ermöglicht es eingebetteten Geräten oder Systemen, webbasierte Benutzeroberflächen bereitzustellen und Daten über das Internet oder ein lokales Netzwerk zugänglich zu machen. Sie sind für den Einsatz in Geräten mit begrenzten Ressourcen wie Speicher, Rechenleistung und Energie optimiert. Sie sind in der Regel kompakt und ressourcenschonend, um auch in kleinen eingebetteten Systemen effizient zu funktionieren.
Embedded Webserver können Daten empfangen, verarbeiten und aktualisieren, die von angeschlossenen Sensoren, Geräten oder Benutzern über das Webinterface bereitgestellt werden. Sie können auch für die Steuerung und Überwachung von Systemen verwendet werden. Um die Integrität und Sicherheit der übertragenen Daten zu gewährleisten, bieten einige Embedded Webserver Funktionen wie HTTPS-Unterstützung (HTTP Secure), Authentifizierung und Verschlüsselung.
EMC

EMC (Electromagnetic Compatibility) beschreibt die Fähigkeit eines elektronischen oder elektrischen Geräts, in seiner elektromagnetischen Umgebung ohne Störungen zu funktionieren und selbst keine unzulässigen elektromagnetischen Störungen zu erzeugen. Dies bezieht sich auf die Fähigkeit eines Geräts, elektromagnetische Emissionen zu kontrollieren und gleichzeitig immun gegenüber externen elektromagnetischen Störungen zu sein.

EMC umfasst verschiedene Aspekte und Standards, darunter:

  • Elektromagnetische Interferenz (EMI): Untersuchung und Steuerung der elektromagnetischen Emissionen eines Geräts.
  • Elektromagnetische Verträglichkeit (EMV): Gewährleistung der Störfestigkeit eines Geräts gegenüber externen elektromagnetischen Störungen.

EMC ist besonders wichtig in Bereichen wie Telekommunikation, Elektronik, Medizintechnik, Automobilindustrie und Luft- und Raumfahrt, wo elektronische Geräte in einer Vielzahl von Umgebungen und Bedingungen zuverlässig funktionieren müssen, ohne die Funktionalität anderer Geräte zu beeinträchtigen oder beeinträchtigt zu werden.

EMI
EMI (Electromagnetic Interference) bezeichnet die ungewollte Störung, die durch elektromagnetische Signale verursacht wird und die normale Funktionsweise elektronischer Geräte, Systeme oder Kommunikationskanäle beeinträchtigen kann. Diese Störungen können sowohl von natürlichen Quellen wie Blitzeinschlägen oder elektrostatischen Entladungen als auch von menschengemachten Quellen wie elektrischen Motoren, Schaltreglern oder HF-Sendern erzeugt werden.
EMV-Normen
EMV-Normen (Elektromagnetische Verträglichkeit) sind internationale Standards und Richtlinien, die entwickelt wurden, um sicherzustellen, dass elektrische und elektronische Geräte und Systeme in der Lage sind, in ihrer elektromagnetischen Umgebung zu arbeiten, ohne unangemessene elektromagnetische Störungen zu erzeugen oder empfindlich auf solche Störungen zu reagieren. Schlüsselaspekte sind: Störungsresistenz, Störfestigkeit und die internationalen Normen nach CISPR, IEC und EN-Normen.
Endpoint
Ein Endpunkt ist ein physisches, entferntes Computergerät, das mit dem Netzwerkrand verbunden ist. Diese Geräte können in der Regel in beide Richtungen kommunizieren. Beispiele für Endpunkte sind:
  • Mobile Computer und Smartphones
  • Sensoren/Aktuatoren
  • Industrielle / intelligente Fertigungssteuerungen
  • Intelligente Steuerungen für Beleuchtung und Heizung
  • Intelligente Kameras und Computer-Vision-Systeme
  • Sicherheitssysteme
  • Point-of-Sale (POS)-Terminals
ESD (Electrostatic Discharge)

ESD (Electrostatic Discharge) bezeichnet den plötzlichen Ausgleich von elektrostatischer Ladung zwischen zwei Objekten unterschiedlicher Potentiale. Dieser Entladungsprozess kann durch die Bewegung oder den Kontakt isolierender Materialien oder durch die Trennung von Materialien verursacht werden. Die Auswirkungen von ESD können auf elektronische Bauteile und Geräte beträchtlich sein, insbesondere in empfindlichen Umgebungen wie der Elektronikfertigung oder in der Handhabung von Halbleitern.

Maßnahmen zur ESD-Prävention umfassen die Verwendung von ableitfähigen Materialien, ESD-geschützte Arbeitsplätze und die richtige Erdung und Ableitung statischer Ladungen.

ESD (Embedded System Design)
Ein Embedded System Design (ESD) ist ein in sich geschlossenes, mikroprozessorbasiertes Computersystem, das in der Regel als Bestandteil eines größeren elektrischen oder mechanischen Systems implementiert ist. Das Herzstück des eingebetteten Systems ist ein integrierter Schaltkreis, der Rechenaufgaben ausführt. Dazu gehören auch Hardware und Software, die beide für die Ausführung einer bestimmten Funktion vorgesehen sind. Eingebettete Systeme können hochkomplex oder relativ einfach sein, je nach der Aufgabe, für die sie entwickelt wurden. Sie können einen einzelnen Mikrocontroller oder eine Reihe von Prozessoren mit verbundenen Peripheriegeräten und Netzwerken umfassen. Sie können keine Schnittstelle oder hochkomplexe grafische Benutzeroberflächen haben. Die Programmieranweisungen für eingebettete Systeme werden in Festwertspeichern oder Flash-Speicherchips gespeichert.
Ethernet
Ethernet ist eine weit verbreitete Technologie für die Vernetzung von Computern und anderen Netzwerkgeräten in lokalen Netzwerken (LANs). Es bildet die Grundlage für die Übertragung von Datenpaketen zwischen Geräten über ein verdrahtetes Netzwerk. Verwendet werden in der Regel verdrillte Kupferkabel, obwohl auch Glasfaserkabeln und drahtlosen Medien wie Wi-Fi als Übertragungsmedium dienen können. Es ermöglicht die Übertragung von Daten mit hoher Geschwindigkeit und Zuverlässigkeit über kurze bis mittlere Distanzen. Ethernet ist eine offene Standardtechnologie, die von der IEEE (Institute of Electrical and Electronics Engineers) in verschiedenen Standards definiert wird. Dies gewährleistet die Interoperabilität zwischen Geräten verschiedener Hersteller. Anwendung findet es vor allem in Unternehmensnetzwerken, Rechenzentren, Heimnetzwerken und in der industriellen Automatisierung.

F

FOTA

Firmware Over-The-Air (FOTA) bezeichnet einen Prozess, bei dem Firmware-Updates drahtlos über Mobilfunknetze oder andere drahtlose Verbindungen auf Geräte oder Systeme übertragen werden können. Dies ermöglicht es, die Firmware eines Geräts zu aktualisieren, ohne dass physische Zugriffe oder Verbindungen über Kabel erforderlich sind.

Die wichtigsten Merkmale von FOTA sind:

  1. Drahtlose Aktualisierung: Firmware-Updates werden über eine drahtlose Verbindung wie Mobilfunk (GSM, LTE) oder WLAN an das Gerät gesendet.
  2. Flexibilität und Effizienz: Updates können remote und gleichzeitig auf eine große Anzahl von Geräten angewendet werden, was Zeit und Kosten spart.
  3. Sicherheit: FOTA implementiert Sicherheitsprotokolle und Verschlüsselungstechniken, um sicherzustellen, dass die Firmware-Updates sicher und vor unbefugtem Zugriff geschützt sind.
  4. Versionsverwaltung: Unterstützt die Verwaltung von verschiedenen Firmware-Versionen und ermöglicht die nahtlose Aktualisierung auf die neueste Version.

FOTA wird häufig in IoT-Geräten (Internet der Dinge) eingesetzt, um sicherzustellen, dass die Geräte stets mit den neuesten Funktionen und Sicherheitspatches ausgestattet sind, ohne dass sie physisch zurückgerufen oder manuell aktualisiert werden müssen. Dies verbessert die Benutzererfahrung, Sicherheit und Zuverlässigkeit der IoT-Infrastrukturen.

FMEA
FMEA steht für "Failure Mode and Effects Analysis" (Fehlermöglichkeits- und -einflussanalyse). Es handelt sich um eine strukturierte Methode zur systematischen Bewertung und Analyse potenzieller Ausfallmöglichkeiten und deren potenzieller Auswirkungen auf ein System, einen Prozess oder ein Produkt. Die FMEA wird häufig in der Qualitätssicherung, Risikomanagement und der Produktentwicklung eingesetzt, um potenzielle Probleme frühzeitig zu identifizieren und Maßnahmen zur Risikominderung zu entwickeln. FMEA ist eine proaktive Analysemethode, die darauf abzielt, potenzielle Ausfallmöglichkeiten zu identifizieren, bevor sie auftreten können. Sie ist systematisch und strukturiert, um systematische und zufällige Fehler zu identifizieren, zu analysieren, Ursachen zu erschließen, sowie Risiken zu bewertet und zu priorisiert.
Footprint

Ein Footprint bezieht sich auf die spezifischen Abmessungen und Platzierungen von elektronischen Komponenten auf einer Leiterplatte (PCB). Der Footprint definiert die exakte Geometrie jedes Anschlusses und Montagepunkts für eine bestimmte elektronische Komponente. Er beinhaltet typischerweise Informationen über die Position der Anschlüsse, die Größe der Pads (Lötflächen), Abstände zwischen den Anschlüssen sowie Markierungen für die Ausrichtung und Montage der Komponente auf der Leiterplatte.

Die Hauptmerkmale eines Footprints sind:

  1. Dimensionen und Platzierung: Spezifische geometrische Parameter, die die korrekte Positionierung der Komponente auf der Leiterplatte sicherstellen.
  2. Pads und Landepunkte: Bereiche auf der Leiterplatte, die zum Löten der Anschlüsse der Komponente dienen. Diese sind so dimensioniert, dass sie die elektrischen Verbindungen sicherstellen und mechanische Stabilität bieten.
  3. Referenzpunkte und Markierungen: Hilfslinien oder Symbole, die die Ausrichtung und Montage der Komponente erleichtern.

Footprints werden häufig von Elektronikdesignern erstellt oder aus Bibliotheken von Footprints ausgewählt, die für verschiedene Standardkomponenten verfügbar sind. Sie sind entscheidend für die korrekte Platzierung und Verbindung elektronischer Bauteile auf der Leiterplatte und tragen dazu bei, dass das fertige Produkt zuverlässig funktioniert und den Designspezifikationen entspricht.

FPGA

Field Programmable Gate Arrays (FPGAs) sind integrierte Schaltkreise, die oft als Standardprodukte verkauft werden. Sie werden als "feldprogrammierbar" bezeichnet, weil sie den Kunden die Möglichkeit bieten, die Hardware nach dem Herstellungsprozess neu zu konfigurieren, um die Anforderungen bestimmter Anwendungsfälle zu erfüllen. Auf diese Weise können Funktionserweiterungen und Fehlerbehebungen vor Ort durchgeführt werden, was besonders bei entfernten Einsätzen nützlich ist.

FPGAs enthalten konfigurierbare Logikblöcke (CLBs) und eine Reihe programmierbarer Verbindungen, die es dem Entwickler ermöglichen, Blöcke zu verbinden und sie so zu konfigurieren, dass sie alles von einfachen Logikgattern bis hin zu komplexen Funktionen ausführen. Vollständige SoC-Designs mit mehreren Prozessen können auf einem einzigen FPGA-Baustein untergebracht werden.

freeRTOS
FreeRTOS ist ein Open-Source-Echtzeitbetriebssystem (RTOS), das speziell für Mikrocontroller und eingebettete Systeme entwickelt wurde. Es bietet eine robuste und flexible Plattform für die Entwicklung von Anwendungen, die Echtzeitfähigkeiten erfordern.

Als Echtzeitbetriebssystem auf Basis von Open-Source bietet es Unterstützung für eine Vielzahl von Mikrocontroller-Plattformen und Architekturen, einschließlich ARM, AVR, MSP430, PIC, und mehr. Es unterstützt preemptives Multitasking und verfügt über Mechanismen zur Synchronisation und Kommunikation zwischen Tasks. Dabei ist FreeRTOS darauf ausgelegt, mit begrenzten Ressourcen wie begrenztem Speicherplatz und CPU-Leistung effizient zu arbeiten, was es ideal für eingebettete Systeme macht. Seine häufigste Anwendung findet es in IoT, industrieller Automatisierung, medizinischen Geräten und in Fahrzeugsystemen und -steuerungen.

Full-custom-Designs
Full-Custom-Designs bezieht sich auf eine Methode der integrierten Schaltkreis (IC)-Entwicklung, bei der jedes Detail des Designs von Grund auf neu entworfen wird. Diese Methode bietet höchste Flexibilität und ermöglicht die optimale Nutzung der verfügbaren Ressourcen. Sie zeichnen sich durch individuelle Anpassungen, hohe Effizienz und Leistung sowie ihre Einzigartigkeit aus. Damit einher geht ihre hohe Komplexität und ein erhöhter Arbietsaufwand. Sie sind also komplexer und kostspieliger als Gate-Arrays, bieten aber im Gegenzug Chip-Flexibilität und die Möglichkeit, größere Arbeitslasten zu verarbeiten.
Functional Verification
Functional Verification bezieht sich auf den Prozess innerhalb der Chip- und Hardware-Entwicklung, bei dem sichergestellt wird, dass ein entworfenes System oder eine Schaltung die spezifizierten funktionalen Anforderungen erfüllt. Dieser Prozess ist entscheidend, um sicherzustellen, dass das entwickelte Design korrekt funktioniert und die beabsichtigten Aufgaben unter verschiedenen Bedingungen und Szenarien ausführt. Diese beinhalten Funktionsprüfungen, Simulationen und Tests, Validierungen und formale Verifikationen. Dazu werden bestimmte Abdeckungsmetriken wie Code- und Funktionsabdeckungen verwendet.

 

FuSi
FuSi ist eine Abkürzung für "Funktionale Sicherheit" (Functional Safety) und bezieht sich auf einen Bereich der Sicherheitsingenieurwissenschaften, der sich mit der Entwicklung von Systemen befasst, die sicher und zuverlässig funktionieren, insbesondere in gefährlichen oder kritischen Umgebungen. Funktionale Sicherheit zielt darauf ab, potenzielle Risiken und Gefahren zu minimieren oder zu kontrollieren, die von technischen Systemen ausgehen können, und sicherzustellen, dass diese Systeme zuverlässig und vorhersehbar arbeiten.

Dazu gehört die Berücksichtigung Folgender Aspekte: Risikobewertung, Sicherheitsanforderungen, Sicherheitsintegrität, Normen und Standards.

G

G.HN
G.hn (auch bekannt als G.hn standard) ist ein internationaler Standard für Hochgeschwindigkeitsnetzwerke über bestehende Hausverkabelung, einschließlich Stromleitungen, Telefonleitungen und Koaxialkabel. Dieser Standard wurde von der International Telecommunication Union (ITU) entwickelt und zielt darauf ab, eine einheitliche Lösung für Heimnetzwerke und Breitbandkommunikation zu bieten.
G.HN zeichnet sich vor allem durch seine Vielseitigkeit aus: es ermöglich die Nutzung verschiedener vorhandener Verkabelungstypen (Stromleitungen, Telefonleitungen, Koaxialkabel), um Hochgeschwindigkeits-Datenübertragung zu realisieren, ohne dass neue Kabel installiert werden müssen. Dabei werden Datenübertragungsraten von bis zu 1 Gbit/s und höher unterstützt. Als standardisierte Heimnetzwerk-Technologie ist G.HN darauf ausgelegt, in anspruchsvollen Umgebungen zu arbeiten und bietet Mechanismen zur Fehlerkorrektur und Interferenzunterdrückung, um eine stabile und zuverlässige Kommunikation zu gewährleisten.

Der Standard unterstützt verschiedene Netzwerkgrößen und Topologien, von kleinen Heimnetzwerken bis hin zu größeren Gebäudevernetzungen.

Gate-Array
Bei Gate-Array handelt es sich um semi-custom Designs, bei denen vordefinierte, diffundierte Schichten, Transistoren und andere aktive Bauelemente verwendet werden, um den Designaufwand und die damit verbundenen Kosten zu minimieren.
Full-Custom-Designs sind komplexer und kostspieliger, bieten aber im Gegenzug Chip-Flexibilität und die Möglichkeit, größere Arbeitslasten zu verarbeiten.

 

Gateway

Ein Gateway ist ein Netzwerkgerät oder eine Softwareanwendung, die als Schnittstelle zwischen verschiedenen Netzwerken oder Kommunikationsprotokollen fungiert, um die Kompatibilität und den Datenfluss zwischen ihnen zu ermöglichen. Typischerweise dient ein Gateway als Vermittlungsstelle, die Daten von einem Netzwerkformat in ein anderes konvertiert und weiterleitet.

in Gateway übersetzt Daten von einem Netzwerkprotokoll in ein anderes, z.B. von Ethernet zu WLAN oder von IPv4 zu IPv6. Es erleichtert die Kommunikation zwischen Netzwerken mit unterschiedlichen Adressierungsschemata oder Topologien. Gateways können Daten filtern und kontrollieren, um unerwünschte oder schädliche Inhalte zu blockieren, sowie Sicherheitsprotokolle anwenden, um Netzwerke zu schützen. Es leitet Datenpakete zwischen verschiedenen Netzwerken oder Subnetzen basierend auf festgelegten Regeln und Routen weiter. In IoT-Umgebungen (Internet der Dinge) fungieren Gateways oft als zentrale Schnittstelle für die Aggregation und Weiterleitung von Daten zwischen lokalen Geräten und Cloud-Diensten.

Gerber Files

Gerber-Dateien sind eine standardisierte Dateiformat-Sammlung, die in der Elektronikindustrie verwendet wird, um Informationen über das Design einer Leiterplatte (PCB) zu speichern und zu übertragen. Diese Dateien enthalten detaillierte Informationen über die verschiedenen Schichten, die für die Herstellung der Leiterplatte erforderlich sind, einschließlich Layout, Leiterbahnen, Pads, Vias, Lötstoppmasken, Beschriftungen und anderen Details. Jede Gerber-Datei repräsentiert eine bestimmte Schicht des PCB-Designs, wie z.B. Kupferlagen (Top Layer, Bottom Layer), Lötstoppmasken, Lötpastenschablonen, Bestückungsdruck und mechanische Layer. Die Gerber-Dateien enthalten präzise geometrische Daten über die Positionen und Formen von Leiterbahnen, Pads und anderen Elementen auf jeder Schicht der Leiterplatte.

GPU
Ein Grafikprozessor (GPU) ist ein elektronischer Schaltkreis zur Verarbeitung von Bildern und zur Beschleunigung der Darstellung von 3D-Computergrafiken auf Verbrauchergeräten wie Computern, Smartphones und Spielkonsolen. Während sowohl GPUs als auch CPUs kritische, siliziumbasierte Rechenmaschinen sind, wurden GPU-Architekturen speziell für die Darstellung von Bildern auf einem Bildschirm entwickelt. Die kleineren, zahlreicheren und hochspezialisierten Kerne des Grafikprozessors sind darauf ausgelegt, Verarbeitungsaufgaben in mehrere Sätze aufzuteilen und diese parallel auf mehreren Kernen zu verarbeiten. Das Ergebnis ist eine deutlich verbesserte Leistung.

H

Heterogenes Computing

Heterogenes Computing bezieht sich in der Regel auf ein System, das mehrere Arten von Rechenkernen verwendet, wie CPUs, GPUs, ASICs, FPGAs und NPUs. Durch die Zuweisung verschiedener Arbeitslasten an Prozessoren, die für bestimmte Zwecke oder eine spezielle Verarbeitung ausgelegt sind, werden Leistung und Energieeffizienz verbessert. Der Begriff „heterogenes Rechnen“ kann sich auch auf die Verwendung von Prozessoren beziehen, die auf unterschiedlichen Computerarchitekturen basieren. Dies ist ein gängiger Ansatz, wenn eine bestimmte Architektur aufgrund von Energieeffizienz, Kompatibilität oder der Anzahl der verfügbaren Kerne besser für eine bestimmte Aufgabe geeignet ist. Eine frühe und immer noch relativ verbreitete Form des heterogenen Rechnens ist die Kombination von CPU-Kernen und einer GPU (Graphics Processing Unit), die für Spiele und andere grafikintensive Anwendungen verwendet wird.

HiL Prüfplatz
HiL Prüfplatz steht für "Hardware-in-the-Loop Prüfplatz". Es handelt sich um eine Testumgebung, die zur Validierung und Verifikation von eingebetteten Systemen und Steuergeräten verwendet wird. In einem HiL-Prüfplatz wird die zu testende Hardware mit einem Simulationssystem verbunden, das die reale Umgebung nachbildet, in der die Hardware später arbeiten soll. Dabei sind Echtzeitsimulationen, Hardwareintegration, Testautomatisierung, Sicherheitsprüfungen und Datenerfassung und Analyse die Hauptaufgaben.

I

Impedanzkontrolle

Impedanzkontrolle bezieht sich auf die präzise Steuerung und Anpassung des elektrischen Widerstands (Impedanz) in Leiterbahnen auf einer Leiterplatte (PCB). Dies ist besonders wichtig in Hochfrequenzanwendungen, wo genaue Impedanzwerte notwendig sind, um die Signalintegrität zu gewährleisten und unerwünschte Reflexionen und Signalverluste zu minimieren.

Designer müssen sicherstellen, dass die Breite, Dicke und Positionierung der Leiterbahnen auf der PCB so kontrolliert werden, dass die gewünschte Impedanz genau eingehalten wird.

Impedanzkontrolle ist besonders wichtig bei Hochgeschwindigkeits- und Hochfrequenzschaltungen wie in der Telekommunikation, drahtlosen Netzwerken, Radarsystemen und anderen elektronischen Geräten, die empfindlich auf Impedanzvariationen reagieren können.

In-Circuit Verification

In-Circuit Verification bezieht sich auf den Prozess der Überprüfung elektronischer Schaltungen oder Leiterplatten (PCBs) während der Fertigung oder Entwicklung, um sicherzustellen, dass alle elektrischen Verbindungen und Funktionen ordnungsgemäß funktionieren. Dieser Test wird typischerweise durchgeführt, indem spezielle Testpunkte auf der Leiterplatte verwendet werden, um elektrische Signale einzuführen und zu messen.

Der Test überprüft elektrische Parameter wie Spannung, Strom und Widerstand, um sicherzustellen, dass sie den Spezifikationen entsprechen.

In-Circuit-Tests können automatisiert werden, was zu einer schnellen Durchführung und einer effizienten Fehlererkennung führt.

Es werden spezifische elektronische Bauteile wie Widerstände, Kondensatoren, Dioden und ICs auf ihre korrekte Funktion und Verbindung geprüft.

In-Circuit-Tests können nahtlos in den Fertigungsprozess integriert werden, um sicherzustellen, dass alle hergestellten Produkte die Qualitätsstandards erfüllen.

Durch die Früherkennung von Fehlern kann die Notwendigkeit teurerer Nacharbeit und Reparaturen reduziert werden.

Industrial IoT
Das Industrial IoT (IIoT) ermöglicht die Überwachung, Steuerung und Optimierung von Prozessen, Ressourcen und Systemen in der gesamten Produktions- und Lieferkette in Echtzeit, indem es energie- und wartungsarme Hochleistungsgeräte miteinander verbindet. Diese IIoT-Geräte können in Echtzeit in schwierigen Umgebungen und über eine einzige Architektur vom Sensor bis zur Cloud betrieben werden und erfüllen branchenspezifische Anforderungen wie funktionale Sicherheit und Schutz. Die Möglichkeiten umfassen: Vernetzung und Kommunikation, Datenanalyse und Big Data, Automatisierung, Fernüberwachung und -steuerung, Integration von IT und OT.
Industrielle Automatisierung
Industrielle Automatisierung nutzt digitale Logik und mechanische Ausrüstung, um Maschinen zu betreiben und menschliche Eingriffe zu minimieren. Beispiele sind maschinelles Lernen für vorausschauende Wartung und Problemerkennung sowie autonome Roboter in Lagerhäusern.

Autonome Systeme optimieren bereits die intelligente Fertigung und Lagerhaltung, einschließlich Produktionslinien und Logistik.

Die traditionelle Automatisierungspyramide hat drei Ebenen: Überwachungscomputer mit spezialisierter Software an der Spitze, die über industrielle Netzwerke kommunizieren; die Steuerungsebene mit speicherprogrammierbaren Steuerungen (SPS) für Echtzeitberechnungen; und Feldsensoren und -aktoren, die über Feldbusse mit den Steuerungen verbunden sind. Diese Ebenen verschmelzen zunehmend, was den Weg für "intelligente Fabriken" ebnet.

 

Instruction Set Architecture (ISA)
Eine Befehlssatzarchitektur (ISA) ist Teil des abstrakten Modells eines Computers, das festlegt, wie die CPU von der Software gesteuert wird. Die ISA fungiert als Schnittstelle zwischen der Hardware und der Software und legt sowohl fest, was der Prozessor tun kann als auch wie er es tut.

Die ISA ist die einzige Möglichkeit, über die ein Benutzer mit der Hardware interagieren kann. Sie kann als Handbuch für den Programmierer angesehen werden, da sie der Teil der Maschine ist, der für den Assembler-Programmierer, den Compiler-Schreiber und den Anwendungsprogrammierer sichtbar ist.

Die ISA definiert die unterstützten Datentypen, die Register, die Art und Weise, wie die Hardware den Hauptspeicher verwaltet, wichtige Funktionen (wie z. B. den virtuellen Speicher), welche Befehle ein Mikroprozessor ausführen kann, und das Eingabe-/Ausgabemodell mehrerer ISA-Implementierungen. Der ISA kann durch Hinzufügen von Befehlen oder anderen Fähigkeiten oder durch Unterstützung größerer Adressen und Datenwerte erweitert werden.

Internationale IPC-Normen

Die IPC-Normen, entwickelt durch die Association Connecting Electronics Industries (ehemals Institute for Interconnecting and Packaging Electronic Circuits), sind internationale Normen und Richtlinien, die sich auf das Design, die Herstellung, Prüfung und Montage von elektronischen Baugruppen und Produkten beziehen. Diese Normen werden von der IPC, einer globalen Handelsorganisation, die sich auf die Elektronikindustrie konzentriert, entwickelt und gewartet. Sie dienen dazu, einheitliche Standards in der Elektronikfertigung zu etablieren und zu fördern.

Typische IPC-Normen und ihre Anwendungsgebiete:

  • IPC-A-600: Akzeptanzkriterien für Leiterplatten.
  • IPC-A-610: Akzeptanzkriterien für elektronische Baugruppen.
  • IPC-2221: Designrichtlinien für Leiterplatten.
  • IPC-6012: Qualitäts- und Leistungsanforderungen an starre Leiterplatten.
  • IPC-7711/7721: Reparatur- und Rework-Richtlinien für elektronische Baugruppen.
  • IPC-J-STD-001: Anforderungen an Lötarbeiten und elektronische Baugruppen.
  • IPC-7351: Richtlinien für die Erstellung von Bauteilbibliotheken für CAD-Systeme.
Interoperabilität

Interoperabilität beschreibt die Fähigkeit verschiedener Systeme, Produkte oder Dienste, nahtlos miteinander zu kommunizieren, zusammenzuarbeiten und Informationen auszutauschen, unabhängig von den spezifischen Implementierungsdetails oder Herstellern. Diese Interoperabilität ermöglicht es, dass heterogene Systeme effizient und effektiv zusammenarbeiten können, ohne dass spezielle Anpassungen oder Schnittstellen erforderlich sind.

Die Verwendung gemeinsamer Standards und Protokolle erleichtert die Interoperabilität zwischen verschiedenen Systemen und fördert einen reibungslosen Austausch von Daten und Informationen zwischen verschiedenen Anwendungen, Plattformen oder Geräten.

IoT Applications

IoT Applications (Anwendungen des Internets der Dinge) beziehen sich auf die verschiedenen Nutzungsszenarien und Lösungen, bei denen vernetzte Geräte und Sensoren eingesetzt werden, auf deren Basis Aktionen auszuführen. Diese Anwendungen nutzen die Fähigkeit des IoT, physische Objekte mit dem Internet zu verbinden und sie so "intelligent" zu machen. Sie vernetzen Geräte und Sensoren, analysieren Daten in Echtzeit, automatisieren Vorgänge auf Basis dieser Analysen, überwachen und steuern diese und integrieren andere IT-Systeme und Plattformen um passende Lösungen zu finden. Zu finden sind IoT Applications heute in fast jedem Lebensbereich beispielsweise in Smart Home Systemen, in Wearables (z.B. Smartwatches), Smart Cities, in Automobilanwendungen oder in der Landwirtschaft.


IoT Devices sind dabei die physischen Komponenten des IoT, die Daten erfassen und Aktionen ausführen, während IoT Applications sind die softwarebasierten Lösungen, die diese Daten nutzen, um nützliche Funktionen bereitzustellen, Prozesse zu steuern und Automatisierungen zu ermöglichen.

IoT Cloud
Eine IoT-Cloud ist ein massives Netzwerk, das IoT-Geräte und -Anwendungen unterstützt. Dazu gehören die zugrunde liegende Infrastruktur, Server und Speicher, die für den Echtzeitbetrieb und die Verarbeitung benötigt werden. Eine IoT-Cloud umfasst auch die Dienste und Standards, die für die Verbindung, Verwaltung und Sicherung verschiedener IoT-Geräte und -Anwendungen erforderlich sind. Hauptaufgaben dabei sind: Konnektivität und Geräteverwaltung, Datenmanagement und -speicherung, Datenanalyse und -verarbeitung, Integration und Interoperabilität, Sicherheits- und Zugriffsmanagement und die Verknüpfung mehrerer IoT Anwendungen.
IoT Devices

IoT-Geräte sind Hardwareteile wie Sensoren, Aktoren, Gadgets, Geräte oder Maschinen, die für bestimmte Anwendungen programmiert sind und Daten über das Internet oder andere Netzwerke übertragen können. Sie können in andere mobile Geräte, Industrieausrüstungen, Umweltsensoren, medizinische Geräte und mehr eingebettet werden.

IoT Devices sind also die physischen Komponenten des IoT, die Daten erfassen und Aktionen ausführen, während IoT Applications sind die softwarebasierten Lösungen, die diese Daten nutzen, um nützliche Funktionen bereitzustellen, Prozesse zu steuern und Automatisierungen zu ermöglichen.

IoT Security
Da IoT Systeme sowohl aus physischen Geräten als auch aus Softwareanwendungen besteht, umfasst die IoT Sicherheit sowohl die Sicherheit physischer Geräte als auch die Netzwerksicherheit und betrifft die Prozesse, Technologien und Maßnahmen, die zum Schutz von IoT-Geräten und -Netzwerken erforderlich sind.

Die Sicherheit von IoT-Geräten muss Systeme, Netzwerke und Daten vor einem breiten Spektrum von IoT-Sicherheitsangriffen schützen, die auf vier Arten von Schwachstellen abzielen:

  • Kommunikationsangriffe auf die zwischen IoT-Geräten und Servern übertragenen Daten
  • Lebenszyklus-Angriffe auf das IoT-Gerät, wenn es vom Benutzer zur Wartung übergeht
  • Angriffe auf die Gerätesoftware
  • Physische Angriffe, die direkt auf den Chip im Gerät abzielen

J

JTAG
JTAG steht für Joint Test Action Group und bezieht sich auf eine Technologie, die ursprünglich entwickelt wurde, um die Testbarkeit von integrierten Schaltungen (ICs) zu verbessern. Heute wird JTAG jedoch auch für andere Zwecke verwendet, einschließlich der Programmierung und Debugging von eingebetteten Systemen. JTAG ermöglicht den Zugriff auf spezielle Testregister innerhalb eines ICs, die normalerweise nicht über die Standard-I/O-Pins zugänglich sind. Dies erleichtert die Durchführung von Funktionstests, Fehlersuche und Diagnosen während der Produktion oder im Feld. Dabei ist es möglich die Verbindungen zwischen IC-Pins zu testen, ohne dass physische Zugriffe erforderlich sind. Neben dem Testen können JTAG-fähige Geräte auch zur Programmierung von Flash-Speichern, FPGA-Konfigurationen und anderen programmierbaren Logikbausteinen verwendet werden. Auch das Debugging von Software auf eingebetteten Systemen ist möglich, indem Breakpoints gesetzt, Speicherinhalte ausgelesen und Zustände überwacht werden.

K

K
May indulgence difficulty ham can put especially. Bringing remember for supplied her why was confined. Middleton principle did she procuring extensive believing add. Weather adapted prepare oh is calling. These wrong of he which there smile to my front. He fruit oh enjoy it of whose table. Cultivated occasional old her unpleasing unpleasant. At as do be against pasture covered viewing started. Enjoyed me settled mr respect no spirits civilly.

L

LabView
LabVIEW steht für Laboratory Virtual Instrument Engineering Workbench und ist eine graphische Programmiersprache und Entwicklungsumgebung, die von National Instruments entwickelt wurde. LabVIEW wird häufig in der Mess-, Steuerungs- und Regelungstechnik sowie in der Datenerfassung und -analyse eingesetzt. LabVIEW ermöglicht die Erstellung von Virtuellen Instrumenten, die als Benutzerschnittstellen für Mess- und Steuerungsanwendungen dienen. Diese VIs können angepasst werden, um Daten anzuzeigen, Benutzereingaben zu verarbeiten und Hardware zu steuern. LabView unterstützt eine Vielzahl von Hardware-Plattformen und Geräten, einschließlich Messgeräte, Datenlogger, Bewegungssteuerungen und mehr. Dies ermöglicht die nahtlose Integration von Hardware in Mess- und Automatisierungssysteme und erweitern die Funktionalität auf Echtzeit- und Embedded-Systeme. Neben der Programmierung von Mess- und Steuerungsanwendungen unterstützt LabVIEW auch die Software-Entwicklung durch Integration mit anderen Programmiersprachen wie C, C++ und Python.
LPWAN

Low Power Wide Area Network (LPWAN) bezeichnet ein drahtloses Netzwerkprotokoll, das für die Kommunikation von batteriebetriebenen Geräten über große Entfernungen bei niedrigem Energieverbrauch optimiert ist. Diese Netzwerke ermöglichen es, dass IoT-Geräte (Internet der Dinge) über lange Zeiträume hinweg Daten übertragen können, ohne dass häufige Batteriewechsel erforderlich sind.

Geräte, die LPWAN nutzen, können in der Regel mit einer einzigen Batterieladung für mehrere Jahre oder sogar Jahrzehnte betrieben werden, da sie nur geringe Energiemengen für die Datenübertragung benötigen.

Durch die Nutzung vorhandener Infrastrukturen wie Mobilfunkmasten können LPWAN-Netzwerke kostengünstig implementiert und betrieben werden.

Typische Anwendungen für LPWAN sind Smart Metering, Asset Tracking, Umweltüberwachung, Smart Cities und landwirtschaftliche Überwachung, wo eine zuverlässige und langfristige Datenübertragung bei minimalem Energieverbrauch erforderlich ist.

M

M2M

M2M (Machine-to-Machine) bezeichnet die direkte Kommunikation zwischen Geräten, Maschinen oder Systemen ohne menschliche Interaktion. Dabei tauschen diese Geräte automatisch Daten aus, um bestimmte Aufgaben auszuführen oder Informationen zu übertragen, ohne dass menschliche Eingriffe erforderlich sind.

M2M ermöglicht es, dass Geräte und Maschinen miteinander kommunizieren und Daten austauschen, um Prozesse zu automatisieren und zu optimieren. Die Kommunikation zwischen den Geräten erfolgt häufig in Echtzeit, um aktuelle Informationen zu übertragen und sofortige Reaktionen oder Steuerungen zu ermöglichen. Die Übertragung erfolgt über drahtlose oder kabelgebundene Netzwerke, einschließlich Mobilfunknetze, WLAN, Ethernet und andere IoT-Netzwerke.

Mesh Network

Ein Mesh-Netzwerk ist ein dezentrales Netzwerk, das aus mehreren miteinander verbundenen Knoten besteht, die untereinander kommunizieren können, um Daten von einem Punkt zum anderen weiterzuleiten. Jeder Knoten im Netzwerk fungiert sowohl als Sender als auch als Empfänger und unterstützt die Weiterleitung von Datenpaketen für andere Knoten im Netzwerk.

Mesh-Netzwerke sind selbstheilend, was bedeutet, dass sie automatisch Routen um defekte oder gestörte Knoten herum finden können, um die Konnektivität und die Datenübertragung aufrechtzuerhalten.

Durch die Vielzahl von Verbindungen und Routen zwischen den Knoten bieten Mesh-Netzwerke Redundanz, was bedeutet, dass mehrere Pfade für die Datenübertragung verfügbar sind. Dies erhöht die Zuverlässigkeit und Ausfallsicherheit des Netzwerks.

Die flexible Architektur von Mesh-Netzwerken ermöglicht es, dass sie in verschiedenen Umgebungen eingesetzt werden können, einschließlich städtischer Bereiche, Unternehmen, Industrieautomation, Smart Homes und Sensornetzwerken.

Microvias

Microvias sind kleine Durchkontaktierungen oder Bohrungen in Leiterplatten (PCBs), die verwendet werden, um eine höhere Packungsdichte und bessere Leistungseigenschaften zu erreichen. Im Vergleich zu herkömmlichen Durchkontaktierungen haben Microvias einen deutlich kleineren Durchmesser, typischerweise weniger als 150 Mikrometer. Sie werden verwendet, um Verbindungen zwischen den Schichten einer mehrschichtigen Leiterplatte herzustellen, wodurch Platz gespart und die Signalleistung verbessert wird. Microvias werden üblicherweise durch Laserbohren oder chemisches Ätzen hergestellt und sind ein wichtiges Merkmal in der High-Density-Interconnect (HDI)-Technologie für moderne Elektronikgeräte.

MTBF
MTBF (Mean Time Between Failures) ist eine statistische Kennzahl, die in der Zuverlässigkeitsanalyse verwendet wird, um die durchschnittliche Zeitspanne zwischen den Ausfällen eines Systems, einer Komponente oder eines Geräts zu beschreiben. MTBF gibt an, wie lange ein Produkt im Durchschnitt betriebsbereit ist, bevor es einen Ausfall erleidet.
MQTT

MQTT (Message Queuing Telemetry Transport) ist ein leichtgewichtiges, offenes Netzwerkprotokoll, das für die Übertragung von Nachrichten zwischen Geräten in Netzwerken mit begrenzter Bandbreite und/oder instabilen Verbindungen optimiert ist.

MQTT ist darauf ausgelegt, mit minimalem Overhead zu arbeiten, was es besonders für IoT (Internet of Things) Anwendungen geeignet macht, wo Ressourcen wie Bandbreite und Energie begrenzt sind.

Nachrichtenorientiert: MQTT ermöglicht es, Nachrichten zwischen einem Sender und einem oder mehreren Empfängern auszutauschen. Die Kommunikation erfolgt über ein Publish-Subscribe-Modell, bei dem Geräte als Publisher (Sender von Nachrichten) oder Subscriber (Empfänger von Nachrichten) fungieren können.

Zuverlässige Zustellung: MQTT unterstützt Quality of Service (QoS)-Level, die die Zuverlässigkeit der Nachrichtenübertragung steuern. QoS-Level reichen von 0 (nur einmalige Zustellung) bis 2 (garantierte Zustellung).

Session-basiert: MQTT kann eine Verbindung zwischen einem Client und einem Server aufrechterhalten, wobei die Sitzungszustände durch sogenannte "Session States" verwaltet werden. Dies ermöglicht es, Nachrichtenempfänger zu identifizieren, die während einer Verbindungsunterbrechung offline waren.

Flexibilität und Erweiterbarkeit: MQTT unterstützt eine Vielzahl von Szenarien und ist durch Erweiterungen anpassbar. Es bietet auch Mechanismen wie das Last Will Testament (LWT), um festzulegen, was geschieht, wenn ein Client unerwartet die Verbindung beendet.

Sicherheit: MQTT kann durch verschiedene Sicherheitsmechanismen wie TLS (Transport Layer Security) verschlüsselt werden, um die Integrität und Vertraulichkeit der übertragenen Daten zu gewährleisten.

N

Netlist

Eine Netlist ist eine abstrakte Darstellung eines elektronischen Schaltkreises in Form einer Liste von Verbindungen zwischen elektronischen Komponenten wie Widerständen, Transistoren, Kondensatoren und anderen Bauelementen. Sie werden verwendet, um elektronische Schaltkreise zu simulieren, zu analysieren und zu entwerfen. Sie dienen als Eingabe für Layout-Tools, die die tatsächliche physische Anordnung der Komponenten auf einer Leiterplatte oder einem integrierten Schaltkreis bestimmen. Es gibt verschiedene Formate und Sprachen zur Darstellung von Netlists, wie z.B. SPICE (Simulation Program with Integrated Circuit Emphasis), Verilog, VHDL und andere spezialisierte Formate, die von elektronischen Design-Automationstools verwendet werden.

O

Open RAN
Open RAN (Open Radio Access Network) ist eine Architektur für drahtlose Kommunikationsnetzwerke, die darauf abzielt, traditionelle monolithische Telekommunikationsinfrastrukturen durch offene, interoperable und standardbasierte Komponenten zu ersetzen. Im Gegensatz zu herkömmlichen RAN-Implementierungen, die oft von einem einzelnen Anbieter integriert sind, fördert Open RAN die Verwendung von Software-definierten Netzwerktechnologien (SDN) und virtualisierten Funktionen (NFV) in einer offenen, disaggregierten (Open RAN trennt die RAN-Funktionen in einzelne Komponenten auf, die durch offene Schnittstellen standardisiert sind. Dies ermöglicht die Verwendung von Hardware und Software verschiedener Anbieter) Umgebung.

P

Padstack

Ein Padstack bezieht sich auf eine spezifische geometrische Konfiguration von Pads auf Leiterplatten oder integrierten Schaltkreisen (ICs). Pads sind metallisierte Flächen oder Punkte auf einer Leiterplatte, die dazu dienen, elektrische Verbindungen herzustellen, beispielsweise durch Löten von elektronischen Bauteilen oder durch Kontaktierung mit anderen Leiterbahnen. Padstacks sind entscheidend für den Designprozess von Leiterplatten und ICs, da sie die Grundlage für die Platzierung und den Kontakt von elektronischen Bauteilen bilden. Sie beeinflussen direkt die Zuverlässigkeit, die elektrische Performance und die Herstellbarkeit des Endprodukts.

Passive Bauelemente
Passive Bauelemente sind elektronische Komponenten, die in elektronischen Schaltungen verwendet werden, um elektrische Signale zu verarbeiten, zu steuern oder zu modulieren, ohne selbst Energie zu erzeugen. Im Gegensatz zu aktiven Bauelementen wie Transistoren oder ICs benötigen passive Bauelemente keine externe Energiequelle, um ihre Hauptfunktion zu erfüllen. Sie sind in der Regel einfacher aufgebaut und spielen eine grundlegende Rolle in elektronischen Schaltungen, indem sie Widerstände, Kapazitäten, Induktivitäten und andere Eigenschaften bereitstellen, die zur Steuerung des Stroms, der Spannung und anderer elektrischer Parameter erforderlich sind. Beispiele sind: Widerstände, Kondensatoren, Transformatorspulen, Induktivitäten, Dioden und Gleichrichter.
PCF
PCF (Plastic Clad Fiber) ist eine optische Faser, bei der der Kern aus Glas besteht und von einem Kunststoffmantel umgeben ist.
  • Eigenschaften:
    • Material: Der Kern von PCF besteht aus Glas, das von einem Kunststoffmantel umgeben ist, der als Schutz und zur Unterstützung der Faser dient.
    • Anwendung: PCF wird für ähnliche Anwendungen wie herkömmliche Glasfasern verwendet, bietet jedoch möglicherweise eine verbesserte mechanische Robustheit durch den Kunststoffmantel.
    • Vorteile: Kombination der Vorteile von Glasfasern (geringe Dämpfung, hohe Bandbreite) mit zusätzlicher mechanischer Stabilität und Flexibilität durch den Kunststoffmantel.
Penetrationstests

Penetrationstests, oft auch als Penetrationstests oder Ethical Hacking bezeichnet, sind gezielte Sicherheitsüberprüfungen von IT-Systemen, Netzwerken oder Anwendungen, um Schwachstellen zu identifizieren, die von potenziellen Angreifern ausgenutzt werden könnten. Ziel ist es, die Sicherheit der getesteten Systeme zu bewerten und Verbesserungsvorschläge für die Sicherheitsmaßnahmen zu entwickeln. Es wird zwischen externen (testen der Sicherheit von öffentlich zugänglichen Systemen oder Netzwerken aus dem Internet) und internen (Simulation von Angriffen durch autorisierte Benutzer innerhalb des Netzwerks, um die Auswirkungen von internen Bedrohungen zu bewerten) Tests unterscheiden. Dabei wird der Fokus auf Sicherheitslücken und Schwachstellen in webbasierten Anwendungen und Diensten und die physischen Sicherheitsmaßnahmen eines Unternehmens gelegt.

PLM

Product Lifecycle Management (PLM) ist ein strategischer Ansatz zur Verwaltung des gesamten Lebenszyklus eines Produkts von der Konzeption über die Entwicklung und Produktion bis hin zur Nutzung, Wartung und Entsorgung. PLM umfasst sowohl technische als auch geschäftsbezogene Aspekte, die darauf abzielen, die Produktentwicklung und -verwaltung effizienter und effektiver zu gestalten.

Dieser Prozess ist in verschiedene Phasen und Aufgabenbereiche unterteilt:

  • Konzept und Entwicklung: PLM beginnt mit der Ideengenerierung und dem Konzeptentwurf eines Produkts. Es beinhaltet die Erstellung von Spezifikationen, Designkonzepten und Machbarkeitsstudien.
  • Design und Engineering: PLM umfasst die detaillierte Konstruktion und technische Entwicklung des Produkts. Dies beinhaltet CAD (Computer-Aided Design), CAM (Computer-Aided Manufacturing) und CAE (Computer-Aided Engineering), um das Produkt zu modellieren, zu simulieren und zu optimieren.
  • Produktionsplanung und -steuerung: PLM deckt die Planung und Steuerung des Produktionsprozesses ab, einschließlich der Materialbeschaffung, Fertigung, Qualitätssicherung und Logistik.
  • Dokumentation und Compliance: PLM stellt sicher, dass alle erforderlichen Dokumentationen wie technische Zeichnungen, Spezifikationen, Prüfberichte und Zertifizierungen ordnungsgemäß verwaltet werden. Es unterstützt auch die Einhaltung gesetzlicher und regulatorischer Anforderungen.
  • Vertrieb und Service: PLM umfasst auch den Vertrieb, die Vermarktung und den Kundendienst des Produkts während seiner gesamten Lebensdauer. Dies beinhaltet die Verwaltung von Ersatzteilen, Garantien, Reparaturen und Upgrades.
  • End-of-Life-Management: PLM berücksichtigt auch das End-of-Life-Management eines Produkts, einschließlich Recycling, Entsorgung und Rückgewinnung von Materialien.
  • Integration von Prozessen und Systemen: PLM integriert oft verschiedene geschäftliche und technische Prozesse sowie Systeme wie ERP (Enterprise Resource Planning), CRM (Customer Relationship Management) und PDM (Product Data Management).
POF

POF (Polymer Optical Fiber) ist eine Art optischer Faser, bei der der Kern und der Mantel aus transparentem Kunststoff bestehen, typischerweise aus PMMA (Polymethylmethacrylat).

  • Material: Der Kern von POF besteht aus PMMA oder anderen transparenten Polymeren, die eine geringere Lichtleitungseffizienz im Vergleich zu Glasfaser bieten, aber einfacher zu handhaben und zu verarbeiten sind.
  • Anwendung: POF wird häufig in kurzen Distanzen eingesetzt, wie in Heimnetzwerken, industriellen Anwendungen und Beleuchtungssystemen.
  • Vorteile: Flexibilität, einfache Installation, Widerstandsfähigkeit gegenüber Biegen und Brechen im Vergleich zu Glasfasern.
Power Integrity (PI)

Power Integrity (PI) bezieht sich auf die Fähigkeit eines elektronischen Systems oder einer Leiterplatte, eine stabile und rauscharme Stromversorgung für alle darin enthaltenen elektronischen Komponenten sicherzustellen. Es umfasst das Management und die Optimierung der Stromversorgung, um sicherzustellen, dass die Spannung und der Strom, die an die Komponenten geliefert werden, frei von Störungen und Interferenzen sind. Ein wichtiges Element zur Verbesserung der PI sind Entkopplungskondensatoren, die in der Nähe von leistungshungrigen Komponenten platziert werden, um Hochfrequenzstörungen zu absorbieren und Spannungsschwankungen zu glätten.

Power Integrity ist besonders wichtig in Hochgeschwindigkeits- und Hochleistungsanwendungen wie Mikroprozessoren, digitalen Signalverarbeitungssystemen, Kommunikationstechnologien und anderen elektronischen Geräten, die eine zuverlässige und stabile Stromversorgung erfordern, um korrekt zu funktionieren.

Q

Q
May indulgence difficulty ham can put especially. Bringing remember for supplied her why was confined. Middleton principle did she procuring extensive believing add. Weather adapted prepare oh is calling. These wrong of he which there smile to my front. He fruit oh enjoy it of whose table. Cultivated occasional old her unpleasing unpleasant. At as do be against pasture covered viewing started. Enjoyed me settled mr respect no spirits civilly.

R

RAN für 5G
5G RAN ist die neueste Architektur in der drahtlosen Kommunikation und nutzt 5G-Funkfrequenzen, um drahtlose Konnektivität für Geräte bereitzustellen. Ein Funkzugangsnetz (RAN) ist eine Schlüsselkomponente eines mobilen Telekommunikationssystems, das Geräte wie Smartphones über eine Funkverbindung mit einem Netz verbindet. Dazu werden Sprach- und Datensignale in digitale Signale umgewandelt und als Funkwellen an RAN-Transceiver übertragen, die sie dann an das Kernnetz weiterleiten. Vom Kernnetz aus können die Daten an das Internet gesendet werden. RANs führen eine intensive, komplexe Verarbeitung durch.
RISC
Ein Computer mit reduziertem Befehlssatz (Reduced Instruction Set Computer, RISC) ist eine Art von Mikroprozessorarchitektur, die einen kleinen, hoch optimierten Satz von Befehlen verwendet und nicht den hochspezialisierten Satz von Befehlen, der typischerweise in anderen Architekturen zu finden ist. RISC ist eine Alternative zur Complex Instruction Set Computing (CISC)-Architektur und wird oft als die effizienteste CPU-Architekturtechnologie angesehen, die heute verfügbar ist.

Bei RISC setzt eine Zentraleinheit (CPU) das Prinzip vereinfachter Befehle um, die weniger, aber schneller ausgeführt werden können. Das Ergebnis ist eine verbesserte Leistung. Ein wesentliches Merkmal von RISC ist, dass es Entwicklern ermöglicht, den Registersatz zu vergrößern und die interne Parallelität zu erhöhen, indem die Anzahl der von der CPU ausgeführten parallelen Threads erhöht und die Geschwindigkeit der von der CPU ausgeführten Befehle gesteigert wird.

S

Schaltungsdimensionierung
Die Schaltungsdimensionierung bezieht sich auf den Prozess der Auswahl und Festlegung der Werte und Parameter für elektronische Komponenten innerhalb einer Schaltung, um sicherzustellen, dass die Schaltung gemäß den Designspezifikationen funktioniert. Dieser Prozess ist entscheidend, um sicherzustellen, dass die Schaltung die gewünschten elektrischen Eigenschaften wie Spannung, Strom, Frequenz und Impedanz erfüllt.

Dieser Prozess umfasst: Komponentenauswahl, Berechnungen und Simulationen, Prototyping, Validierung und Optimierung.

Schematic Capture

Schematic Capture bezeichnet den Prozess des Erstellens eines elektronischen Schaltplans mittels computergestützter Werkzeuge. Dieser Schaltplan dient als grafische Darstellung eines elektronischen Systems oder einer Schaltung und zeigt die Verbindungen zwischen verschiedenen elektronischen Komponenten wie Widerständen, Transistoren, Kondensatoren und ICs.

Die Software bietet eine Bibliothek mit vordefinierten Symbolen für gängige elektronische Bauteile. Diese Symbole repräsentieren die elektrischen Eigenschaften und Funktionen der Bauteile und vereinfachen die Erstellung des Schaltplans. Der erstellte Schaltplan dient als Grundlage für weitere Designphasen wie das PCB-Layout (Printed Circuit Board), bei dem die Platzierung und Verbindung der Komponenten auf der Leiterplatte festgelegt werden.

Schnittstellenwandler
Ein Schnittstellenwandler ist eine elektronische Vorrichtung oder ein Bauteil, das dazu dient, Signale oder Daten zwischen verschiedenen elektronischen Systemen, Geräten oder Komponenten mit unterschiedlichen Kommunikationsprotokollen oder elektrischen Standards zu konvertieren. Die Hauptfunktion eines Schnittstellenwandlers besteht darin, die Kompatibilität zwischen verschiedenen Schnittstellen herzustellen, sodass Informationen effektiv ausgetauscht werden können, ohne Datenverlust oder Inkompatibilitätsprobleme zu verursachen.
SHDSL

SHDSL (Single-pair High-speed Digital Subscriber Line) ist eine DSL-Technologie (Digital Subscriber Line), die für die Bereitstellung symmetrischer Datenübertragungsraten über herkömmliche Kupfer-Telefonleitungen entwickelt wurde. Im Gegensatz zu anderen DSL-Technologien, die asymmetrische Übertragungsraten bieten (wie ADSL, bei dem die Download-Geschwindigkeit höher ist als die Upload-Geschwindigkeit), bietet SHDSL identische Upload- und Download-Geschwindigkeiten, was es ideal für Geschäftsanwendungen wie VPNs, Video-Conferencing, Voice over IP (VoIP) und andere Anwendungen macht, die eine gleichmäßige Bandbreite benötigen. SHDSL kann über längere Entfernungen stabil arbeiten und unterstützt verschiedene Konfigurationsmöglichkeiten, einschließlich der Nutzung eines oder mehrerer Kupferdrahtpaare, um unterschiedliche Bandbreitenanforderungen zu erfüllen.

Signal Integrity

Signal Integrity (SI) bezieht sich auf die Fähigkeit eines elektronischen Systems, elektrische Signale effektiv und zuverlässig von einem Punkt zum anderen zu übertragen, ohne dass dabei unerwünschte Verzerrungen oder Degradationen auftreten. SI ist ein Schlüsselelement für die Gewährleistung einer korrekten und fehlerfreien Datenübertragung in Hochgeschwindigkeits- und Hochfrequenzschaltungen.

SI betrifft die Reduzierung von Signalverlusten und Dämpfungen während der Übertragung. Diese können durch Widerstände, Leitungsverluste, Materialimpedanzen und andere Faktoren verursacht werden.

SI umfasst die Minimierung von Reflexionen an den Signalübergängen und die Gewährleistung einer richtigen Impedanzanpassung zwischen den Komponenten und Übertragungsmedien. Reflexionen können Signaldegradationen und Interferenzen verursachen.

SI bezieht sich auf die Kontrolle und Minimierung von Rauschen und elektromagnetischen Störungen (EMI/EMC), die die Integrität der übertragenen Signale beeinträchtigen können. Dies umfasst Maßnahmen wie Entstörung, Schirmung und Layoutoptimierung.

Silkscreen

Silkscreen, auch bekannt als Siebdruck, bezieht sich auf eine gedruckte Schicht auf der Oberfläche einer Leiterplatte oder eines elektronischen Baugruppenträgers. Diese Schicht dient hauptsächlich der Beschriftung und Kennzeichnung von Komponenten, Anschlüssen, Leiterbahnen und anderen wichtigen Merkmalen auf der Leiterplatte.

Die Silkscreen-Schicht enthält typischerweise Text, Symbole, Referenzbezeichnungen und andere grafische Elemente, die zur Identifizierung und zum Verständnis der Komponenten und der Leiterplatte selbst dienen. Dies erleichtert die Montage, den Betrieb und die Wartung des elektronischen Systems. Die Beschriftungen auf der Silkscreen-Schicht sind präzise um die tatsächlichen Komponenten und Anschlüsse positioniert, was Ingenieuren und Technikern hilft, die richtigen Bauteile an den richtigen Stellen zu platzieren und zu verbinden.

Neben der Identifikation von Komponenten kann die Silkscreen-Schicht auch andere nützliche Informationen enthalten, wie z.B. Firmenlogos, Herstellerdaten, Sicherheitshinweise oder Betriebstemperaturen.

Smart Grid

Ein Smart Grid (intelligentes Stromnetz) ist ein modernisiertes Stromnetz, das fortschrittliche Technologien und Kommunikationsinfrastrukturen nutzt, um effizienter, zuverlässiger, nachhaltiger und kosteneffizienter zu sein. Es ist eine Weiterentwicklung des traditionellen Stromnetzes, das durch die Integration digitaler Technologien und intelligenter Steuerungssysteme optimiert wird.

Sie unterstützen die Integration von erneuerbaren Energiequellen wie Solar- und Windenergie. Sie optimieren die Nutzung dieser dezentralen Energiequellen und gleichen Schwankungen in der Stromerzeugung aus.

Smart Grids ermöglichen ein intelligentes Lastmanagement, indem sie Energieverbrauch und -produktion in Echtzeit überwachen und ausgleichen. Sie fördern auch Demand-Response-Programme, bei denen Verbraucher ihre Energieverbrauchsmuster anpassen können, um die Netzstabilität zu verbessern und mehr Tansparenz zu gewährleisten.

Smart Grids verbessern die Sicherheit und Zuverlässigkeit des Stromnetzes durch die Implementierung fortschrittlicher Schutz- und Sicherheitsmaßnahmen sowie durch die Redundanz von Energiequellen und Übertragungswegen.

Durch die Förderung einer nachhaltigen Energieerzeugung und -nutzung tragen Smart Grids zur Reduzierung der Umweltbelastung und zur Unterstützung langfristiger Nachhaltigkeitsziele bei.

SoC Development

Ein SoC (System-on-a-Chip) ist ein vollständiges Verarbeitungssystem in einem einzigen Gehäuse, das mehrere Verarbeitungsteile enthält. Zu den Hauptkomponenten eines SoC gehören in der Regel eine zentrale Verarbeitungseinheit, Speicher, Eingangs- und Ausgangsanschlüsse, periphere Schnittstellen und sekundäre Speichergeräte.

Der SoC integriert alle Komponenten auf dem Schaltkreis und ist daher fest kodiert, während beim traditionellen Motherboard-Ansatz Erweiterungskarten zur Integration verschiedener Komponenten verwendet werden.

Für Entwickler, die neue Produkte entwickeln wollen, sind SoCs von der Stange erhältlich. Diese können für viele Produkte die beste Option sein, aber sie haben auch ihre Grenzen. Komponenten von der Stange schränken die Möglichkeit ein, das Produkt in Schlüsselbereichen wie Preis, Funktionsumfang, Größe und Zuverlässigkeit zu differenzieren. Deshalb ist ein kundenspezifischer Chip oft die bessere Wahl. Die Entwicklung eines kundenspezifischen Chips erforderte früher erhebliche Investitionen und war Produkten vorbehalten, bei denen große Stückzahlen zu erwarten waren. Heute jedoch machen der Zugang zu geistigem Eigentum und kostengünstige Lösungen die Entwicklung kundenspezifischer Chips zu einer praktikablen Option.

SoM
Ein System on Module (SoM) ist eine integrierte elektronische Baugruppe, die alle wesentlichen Komponenten eines Computersystems auf einer einzigen Platine vereint. Typischerweise umfasst ein SoM Prozessor (CPU), Speicher (RAM), Flash-Speicher, Netzwerk- und I/O-Schnittstellen sowie gegebenenfalls weitere spezifische Funktionen wie Grafikprozessoren oder Audio-Controller. SoMs werden häufig in eingebetteten Systemen und IoT-Geräten eingesetzt, um die Entwicklung und Integration von Hardware zu erleichtern und die Time-to-Market zu verkürzen. Sie sind in der Regel klein, kompakt und bieten eine hohe Integration, was sie ideal für Anwendungen macht, bei denen Platz und Leistungseffizienz wichtig sind.
Statische Tests
Statische Tests beziehen sich auf eine Reihe von Techniken und Methoden, die verwendet werden, um Software oder Code zu analysieren, ohne sie tatsächlich auszuführen. Diese Tests konzentrieren sich auf die statische Analyse des Quellcodes oder der Artefakte, um potenzielle Fehler, Sicherheitslücken, Designprobleme oder andere Abweichungen von Coding-Standards zu identifizieren. Statische Tests sind eine wichtige Ergänzung zu dynamischen Tests, da sie frühzeitig im Entwicklungsprozess eingesetzt werden können, um potenzielle Probleme zu erkennen, bevor der Code in einer Umgebung ausgeführt wird. Durch die Identifizierung von Fehlern in einer frühen Phase kann die Qualität des Codes verbessert, die Wartungskosten gesenkt und die Sicherheit und Zuverlässigkeit der Software erhöht werden.
Stitching Via

Eine Stitching Via (auch bekannt als "Stitch Via" oder "Stitching Hole") ist ein Begriff aus dem Bereich der Leiterplattentechnik und bezeichnet eine spezielle Art von durchkontaktierter Bohrung oder Loch, das verwendet wird, um unterschiedliche elektrische Lagen (Layers) einer Leiterplatte miteinander elektrisch zu verbinden. Der Begriff "Stitching" deutet darauf hin, dass diese Vias dazu dienen, Verbindungen zwischen verschiedenen Lagen zu "nähen" oder zu "versticken". Insbesondere bei Hochgeschwindigkeitsschaltungen und Hochfrequenzanwendungen helfen Stitching Vias, die Impedanzen zwischen den Lagen zu reduzieren und eine gleichmäßigere Signalintegrität sicherzustellen.

Stitching Vias können auch verwendet werden, um elektromagnetische Interferenzen (EMI) zu reduzieren, indem sie die Strompfade zwischen den Lagen optimieren und den Stromfluss für eine bessere Erdung oder Entstörung ermöglichen.

In komplexen Designs werden Stitching Vias oft durch Simulation und Analyse optimiert, um sicherzustellen, dass sie die spezifischen Anforderungen an Signalintegrität und elektrische Performance erfüllen.

SYSML
SYSML steht für Systems Modeling Language - Systemmodellierungssprache. Es handelt sich um eine standardisierte Modellierungssprache, die verwendet wird, um komplexe Systeme zu beschreiben, zu analysieren und zu entwerfen. SYSML wurde entwickelt, um die Bedürfnisse von Systemingenieuren zu erfüllen, die die Unified Modeling Language (UML) für die spezifische Systementwicklung verwenden.

T

Telemetry

Telemetry bezieht sich auf den Prozess der Erfassung, Messung und Übertragung von Daten über entfernte oder schwer zugängliche Objekte oder Phänomene. Es handelt sich um eine Technik, die in verschiedenen Bereichen wie der Luft- und Raumfahrt, der Medizin, der Umweltüberwachung, der Fahrzeugtechnik und der Telekommunikation eingesetzt wird, um wichtige Informationen in Echtzeit zu sammeln und zu analysieren.

Telemetry ermöglicht die kontinuierliche Echtzeitüberwachung und Erfassung von Daten wie Temperatur, Druck, Geschwindigkeit, Position, Beschleunigung und anderen physikalischen Parametern, ohne dass direkter physischer Zugang erforderlich ist.

Die gesammelten Daten werden drahtlos oder über Kabelverbindungen übertragen, normalerweise zu einer zentralen Steuerstation oder einem Empfangsgerät, das die Informationen analysiert, speichert und gegebenenfalls Maßnahmen ergreift.

Thermal Via

Ein Thermal Via ist eine spezielle Art von Durchkontaktierung (Via) in einer Leiterplatte, die primär dazu dient, Wärme von einer Schicht der Leiterplatte zur anderen zu leiten und zu verteilen. Dies geschieht durch die Verwendung von Kupferdurchkontaktierungen, die eine verbesserte Wärmeableitung ermöglichen, insbesondere in Bereichen mit hoher thermischer Belastung.

Thermal Vias dienen dazu, Wärme von Komponenten oder Bereichen auf der Leiterplatte abzuleiten, die eine erhöhte Wärmeentwicklung aufweisen, wie zum Beispiel Leistungstransistoren, Spannungsregler oder Hochleistungsbauteile. Sie verbinden thermische Pads oder Wärmesenken auf verschiedenen Schichten der Leiterplatte miteinander. Dadurch wird die Wärme effizient über mehrere Lagen verteilt und abgeführt.

In komplexen Designs werden Thermal Vias oft durch Simulation und Analyse optimiert, um sicherzustellen, dass sie die erforderliche thermische Leistungsfähigkeit bieten und potenzielle Wärmeengpässe vermeiden.

Thermal Vias sind also besonders wichtig in Leiterplattendesigns für elektronische Geräte mit hoher Leistungsdichte oder hoher Wärmeerzeugung. Sie helfen, die Betriebstemperaturen zu kontrollieren, die Lebensdauer von elektronischen Komponenten zu verlängern und die Zuverlässigkeit des gesamten Systems zu verbessern.

Timing Verification
Timing Verification bezieht sich auf den Prozess der Überprüfung und Gewährleistung, dass Timing-Anforderungen innerhalb eines digitalen Schaltungsentwurfs oder eines Systems erfüllt sind. Timing-Anforderungen beziehen sich auf die zeitlichen Bedingungen, die eingehalten werden müssen, damit das System ordnungsgemäß funktioniert, insbesondere in Bezug auf die Synchronisation von Signalen, das Timing von Taktsignalen und die Vermeidung von Zeitverzögerungen oder -überschreitungen, die zu Fehlfunktionen führen könnten.
Trace

Der Begriff Trace bezeichnet eine leitende Verbindung oder eine Leiterbahn auf der Oberfläche einer Leiterplatte. Traces dienen dazu, elektrische Signale zwischen verschiedenen Komponenten und Bauteilen auf der Leiterplatte zu leiten und zu übertragen.

Traces bestehen aus Kupferbahnen oder -leitungen, die auf die Oberfläche der Leiterplatte aufgetragen werden. Sie übertragen elektrische Signale, Spannungen und Ströme zwischen den verschiedenen Komponenten wie ICs (Integrated Circuits), Widerständen, Kondensatoren und anderen Bauteilen. In mehrschichtigen Leiterplatten können Traces auf verschiedenen Lagen (Layers) verlaufen. Inter-Layer-Vias dienen dazu, Traces zwischen den Lagen zu verbinden und die elektrische Kontinuität sicherzustellen.

Traces spielen eine entscheidende Rolle bei der Aufrechterhaltung der Signalintegrität in Hochgeschwindigkeits- und Hochfrequenzschaltungen. Dies umfasst die Minimierung von Signalverlusten, Verzerrungen und elektromagnetischen Störungen (EMI).

U

Ubiquitous Computing
Ubiquitäres Computing, auch bekannt als Pervasive Computing, ist die Idee, dass Computerfähigkeiten in alltägliche Objekte und Geräte überall eingebaut sind. Im Gegensatz zum Desktop-Computing bedeutet Ubiquitäres Computing, dass Menschen nicht mehr direkt mit ihren Computern interagieren müssen, um bestimmte Aufgaben auszuführen, da die Objekte um sie herum KI und maschinelles Lernen nutzen, um ihre Bedürfnisse proaktiv zu verstehen und darauf zu reagieren. Ubiquitäres Computing integriert Mikroprozessoren in Alltagsgegenstände wie Lampen, Kameras, Fernsehgeräte, Wearables, Sprachassistenten und Sensoren.
Diese vernetzten Geräte können kommunizieren und intelligent reagieren, um Dienste für verschiedene Anwendungen bereitzustellen. Eine intelligente Stadt kann beispielsweise kontextbezogene Datenverarbeitung einsetzen, um Videoüberwachung, Verkehrssysteme und Geschäfte miteinander zu verbinden, um den Verkehr und Staus auf den Straßen und in Einkaufszentren zu reduzieren. Durch das Sammeln und Analysieren von Umgebungsdaten können Ubiquitäres Computing-Umgebungen nahtlose, intelligente und relevante Erfahrungen liefern.

V

VDSL
VDSL steht für "Very High Speed Digital Subscriber Line" und ist eine Breitband-Übertragungstechnologie, die hauptsächlich in Telekommunikationsnetzen verwendet wird, um hohe Datenübertragungsraten über herkömmliche Kupferleitungen zu ermöglichen. VDSL bietet wesentlich höhere Datenraten als herkömmliche DSL-Technologien wie ADSL oder ADSL2+. Die theoretischen Maximalgeschwindigkeiten reichen bis zu mehreren hundert Megabit pro Sekunde. Im Vergleich zu ADSL ist VDSL aufgrund seiner höheren Frequenzbereiche (typischerweise bis zu 30MHz) und der Nutzung von Vectoring-Techniken für kürzere Leitungslängen optimiert. Typischerweise werden Entfernungen von bis zu 1,5 Kilometern zwischen dem Endbenutzer und dem Verteilerpunkt unterstützt. VDSL wird häufig in städtischen und dicht besiedelten Gebieten eingesetzt, wo kurze Kupferleitungen und hohe Bandbreitenanforderungen vorherrschen. Es bietet eine kosteneffiziente Lösung für Breitbandanschlüsse, insbesondere wenn Glasfaser bis zum Verteiler (FTTC - Fiber to the Curb) verlegt ist und die letzten Kilometer über Kupferkabel erfolgen.
Via

Im Bereich der Leiterplatten bezeichnen Via eine Durchkontaktierung oder ein Loch, das durch die gesamte Dicke einer Leiterplatte verläuft und verschiedene Lagen (Layers) der Leiterplatte elektrisch miteinander verbindet. Vias spielen eine entscheidende Rolle bei der Übertragung elektrischer Signale, der Stromversorgung und der Wärmeableitung innerhalb von Leiterplatten.

Arten von Vias:

  • Through-Hole Vias: Durchgehende Vias, die von der Oberseite bis zur Unterseite der Leiterplatte reichen.
  • Blind Vias: Vias, die nur eine oder einige Lagen der Leiterplatte durchqueren und nicht die gesamte Dicke.
  • Buried Vias: Vias, die vollständig zwischen den inneren Lagen der Leiterplatte liegen und nicht an der Oberfläche sichtbar sind.

Vias leiten Signale zwischen den Lagen einer Leiterplatte, was besonders wichtig ist, um die Dichte von Schaltungen zu erhöhen und Platz zu sparen. Sie tragen auch die elektrische Energie von einer Schicht zur anderen, um Komponenten auf der Leiterplatte mit Strom zu versorgen. Spezielle Vias wie Thermal Vias dienen dazu, Wärme von heißen Komponenten abzuleiten und über verschiedene Lagen der Leiterplatte zu verteilen.

Vias werden in einem PCB-Design (Printed Circuit Board) strategisch platziert, um optimale elektrische Performance und thermische Effizienz zu gewährleisten. Die Platzierung und Größe der Vias werden entsprechend den Anforderungen des Designs und den Spezifikationen der Komponenten festgelegt.

W

W
May indulgence difficulty ham can put especially. Bringing remember for supplied her why was confined. Middleton principle did she procuring extensive believing add. Weather adapted prepare oh is calling. These wrong of he which there smile to my front. He fruit oh enjoy it of whose table. Cultivated occasional old her unpleasing unpleasant. At as do be against pasture covered viewing started. Enjoyed me settled mr respect no spirits civilly.

X

xDSL

xDSL ist ein Sammelbegriff für verschiedene Breitbandübertragungstechnologien, die digitale Subscriber Lines (DSL) nutzen, um hohe Datenübertragungsraten über herkömmliche Kupferleitungen zu ermöglichen. Der Buchstabe "x" steht dabei für "any" oder "various", da es verschiedene Varianten von DSL gibt, die unter dieser Kategorie zusammengefasst werden.

Typische Varianten sind:

  • ADSL (Asymmetric DSL): Optimiert für ungleichmäßige Datenübertragungsraten, wobei die Downstream-Geschwindigkeit (zum Benutzer) höher ist als die Upstream-Geschwindigkeit (vom Benutzer).
  • VDSL (Very High Speed DSL): Bietet noch höhere Geschwindigkeiten als ADSL, insbesondere bei kurzen Entfernungen zwischen dem Benutzer und dem Verteilerpunkt (FTTC - Fiber to the Curb).
  • VDSL2: Eine Weiterentwicklung von VDSL, die durch Techniken wie Vectoring und Bonding verbesserte Leistung und Stabilität bietet.
  • SDSL (Symmetric DSL): Bietet symmetrische Datenübertragungsraten für Upstream und Downstream, was besonders für Unternehmen und Anwendungen wie Videoübertragung wichtig ist.
  • HDSL (High bit-rate DSL): Eine symmetrische DSL-Variante, die höhere Geschwindigkeiten als ADSL bei symmetrischen Übertragungsraten bietet.
  • SHDSL (Symmetrical High-bit-rate DSL): Bietet symmetrische Datenübertragungsraten für sowohl den Upload als auch den Download und hauptsächlich für Geschäftsanwendungen verwendet wird, die gleich hohe Bandbreiten in beide Richtungen erfordern.

Y

Y
May indulgence difficulty ham can put especially. Bringing remember for supplied her why was confined. Middleton principle did she procuring extensive believing add. Weather adapted prepare oh is calling. These wrong of he which there smile to my front. He fruit oh enjoy it of whose table. Cultivated occasional old her unpleasing unpleasant. At as do be against pasture covered viewing started. Enjoyed me settled mr respect no spirits civilly.

Z

Z
May indulgence difficulty ham can put especially. Bringing remember for supplied her why was confined. Middleton principle did she procuring extensive believing add. Weather adapted prepare oh is calling. These wrong of he which there smile to my front. He fruit oh enjoy it of whose table. Cultivated occasional old her unpleasing unpleasant. At as do be against pasture covered viewing started. Enjoyed me settled mr respect no spirits civilly.