Intel Core i7 6700K + ASRock Z270 Taichi + MSI Radeon R9 290 Gaming 4G + + LEPA G650 Gold Modular PSU + 8GB Corsair RAM +2xHDD

Sold EUR 401,00 44 Bids, EUR 6,99 Shipping, eBay-Käuferschutz

Seller: powertronic_xxl (267) 100%, Location: Essen, Ships to: DE, Item: 192992436640 Auktion ++ Sehen Sie sich auch meine anderen Auktionen an ++ Top Gaming / PC Bundle Mainboard + Prozessor (CPU) mit Lüfter + Grafikkarte + RAM + Netzteil (PSU) + 2x Festplatten (HDD) Der PC besteht aus folgenden Komponenten Artikel 01 : Mainboard AsRock Z270 Taichi Artikel 02 : Prozessor Intel Core i7 6700K (4x 4.00GHz So.1151) mit Alpine 11 GT Lüfter Artikel 03 : Grafikkarte MSI Radeon R9 R290 GAMING 4G Artikel 04 : RAM 8GB CORSAIR VENGEANCE LPX 8GB (2 x 4GB) DDR4 DRAM 2400MHz C16 Memory Kit - Black CMK8GX4M2A2400C16 Artikel 05 : Netzteil LEPA G650 GOLD - Modular - 650 Watt mit GOLD Zertifizierung Artikel 06 : Festplatten (HDDs) Dazu zwei wenig gebrauchte 2,5" Festplatten, 1x Western Digital WD3200BEVT Scorpio Blue 320GB Festplatte/HDD 2,5" und 1x Seagate ST9500325AS Momentus 5400.6 500GB Festplatte/HDD 2,5" ARTIKEL ZUSTAND Sehr gut, ganz wenig gebraucht, Originalverpackungen (OVP) sind dabei ARTIKEL 01: Mainboard AsRock Z270 Taichi BESCHREIBUNG Das ASRock Z270 Taichi LGA1151 DDR4 Mainboard begeistert vor allem mit enormer Grundausstattung, den bislang höchsten BCLK OC Ergebnissen auf OCinside, vielfältigen Einstellungen und bietet ganz nebenbei noch schicke Beleuchtungseffekte. Als Grundausstattung bietet das Z270 Taichi Mainboard insgesamt fünf PCI Express Steckplätze, zehn SATA3 Ports, drei schnelle Ultra M.2 32Gb/s Slots, bis zu neun mögliche USB 3.0 Ports, bis zu sechs mögliche USB 2.0 Ports, zwei Teaming fähige 1 Gigabit LAN Port, 802.11ac WiFi, Bluetooth v4.0, 7.1 Purity 4 Sound mit Content Protection, analoge Soundausgabe über fünf Klinkenbuchsen, digitale Soundausgabe über optical S/PDIF, TPM Anschluss, vier DDR4 Slots, grafische Oberfläche zur optimalen Steuerung der Lüfter im UEFI Setup, Lüfter Erkennung, AURA RGB LED Beleuchtung und vieles mehr. Alles in allem ist das ASRock Z270 Taichi Mainboard ist absolut empfehlenswert für Gaming, VR Brillen, beim Einsatz mit großen PC Monitoren und zum High-End Übertakten. Mit dieser High-End Ausstattung und starken Leistung erhält das ASRock Z270 Taichi Mainboard unseren OCinside.de Overclocking Dream Award RGB LED Bauen Sie Ihr eigenes farbenfrohes System! Die AURA-RGB-LED-Leisten und Header ermöglichen Nutzern den Anschluss von LED-Strips, um auf einfache Weise einen einzigartigen PC zu erschaffen. Das ASRock-Utility für die RGB LED kann direkt oder über das All-in-One-Utility über das ASRock Live Update und den APP-Shop heruntergeladen werden! Dualband-WLAN nach 802.11ac Niemand hat die Zeit für ein schwaches WLAN-Signal oder ein träges Internet! Aus diesem Grund kommt dieses Mainboard mit einem WLAN-Modul nach 802.11ac (2,4G / 5G WiFi) mit Unterstützung für kabellose Netzwerke und Bluetooth v4.0. Dreimal Ultra M.2 Drei der weltweit schnellsten Ultra-M.2-Slots mit PCIe-Gen3-x4-Anbindung mit einer Transferrate von bis zu 32 Gb/s. Zudem werden M.2-Module mit SATA3 (6 Gb/s) unterstützt. Purity Sound™ 4 Es ist an der Zeit, das klarste Sound-Erlebnis mit ultrahoher Qualität zu erleben. Purity Sound 4 ist eine Kombination aus verschiedenen Hardware- und Software-Lösungen für die Sound-Ausgabe. 7.1-CH-HD-Audio mit dem neuesten Soundchip ALC1220 von Realtek, individuelle PCB-Lagen für den rechten und linken Audiokanal, 120 dB SNR DAC und weiteren Technologien liefern die knackigsten Sound-Effekte. 120dB SNR DAC, Gold Audio connector, TI® NE5532 Premium Headset Amplifier, Individual PCB Layers for R/L Audio Channel, Impedance Sensing on Rear Out Port, PCB Isolate, Shielding, Pure Power-In, Nichicon Fine Gold Series Audio Caps, Gold Audio Jacks PCI-E STEEL SLOT Die fortschrittlichen PCI-E-Steel-Slots sind mit einer massiven Abdeckung versehen, die vor Signalinterferenzen im Zusammenhang mit der Grafikkarte schützt. Zudem sorgen sie dafür, dass auch schwere Grafikkarten immer sicher in den PCI-E-Slots verbaut sind. Dual USB 3.1 Gen2 (Type-A + Type-C) Ein Paar onboard verbauter USB-3.1-Anschlüsse vom Typ-A und Typ-C für Transferraten von bis zu 10 Gbps. Bereit für die Speichertechnik Intel® Optane Unterstützt die Speichertechnik Intel® Optane™, die einen neuen Standard in Punkto Leistung und Reaktionszeit setzt. SLI-HB-Bridge kostenlos Die kostenlos beigelegte neue SLI-HB-Bridge von ASRock ist kompatibel mit den Grafikkarten NVIDIA® GeForce GTX 1080 und 1070 und ermöglicht eine Verdopplung der verfügbaren Transferbandbreite für eine rockiges Gameplay und Surround-Gaming in bester Qualität. Dual Intel® LAN Benutzer können an der hinteren I/O-Blende dieses Mainboards zwei LAN-Kabel anschließen. Dual-LAN mit aktivierter Teaming-Funktion ermöglicht es diesem Mainboard die maximale Übertragungsrate zu verdoppeln, indem zwei Einzelverbindungen als eine Verbindung verwaltet werden. So wird Datenübertragung noch effektiver. Hyper BCLK Engine II Ein zusätzlicher, externer Taktgeber, der eine größere Frequenzbandbreite und präzisere Spannungskurven bietet. Benutzerfreundliches UEFI & EZ-Modus Das verbesserte UEFI von ASRock ist das flüssigste und raffinierteste BIOS mit Maussteuerung für eine optimale Benutzerfreundlichkeit. Der Advanced-Modus bietet umfangreiche Optionen, die für Overclocker und Power-User entwickelt wurden und das Maximum aus der PC-Hardware herauskitzeln möchten. Der EZ-Modus bietet ein Dashboard, das diverse Systemwerte anzeigt. Sie finden dort die wichtigsten Informationen des Systems auf einen Blick, wie den CPU-Takt, den DRAM-Takt, SATA-Informationen, die Lüftergeschwindigkeit und vieles mehr XXL-Kühlkörper mit Aluminiumlegierung Ein extragroßer Kühlkörper mit Aluminiumlegierung sorgt für eine effektive Wärmeabführung vom MOSFET und dem Chipsatz, so dass Ihr ganzes System zuverlässiger funktioniert. Hochwertige 60A-Spule für die Stromversorgung Im Vergleich zu herkömmlichen Spulen verfügen die neuen Premiumspulen für die Stromversorgung über einen dreimal so hohen Sättigungsstrom, so dass das Mainboard eine verbesserte Vcore-Spannung bietet. Legierte Premiumspulen für den Speicher Speziell entwickelt, um die Stromversorgung des Speichers zu regulieren, sind die neuen, legierten Spulen hochgradig resistent gegen magnetische Einwirkungen und Hitze. Auf diese Weise kann das Mainboard einen zuverlässigeren und stabileren Strom liefern. Dual-Stack-MOSFET (DSM) Dual-Stack-MOSFETs (DSM) stellen ein weiteres innovatives MOSFET-Design dar, bei dem die Die-Fläche durch das Stapeln zweier Dies in einem MOSFET erhöht wird. Je größer die Die-Fläche, desto geringer ist der Rds(on). Im Vergleich mit herkömmlichen MOSFETs bietet die DSM-Technik eine größere Die-Fläche mit einem extrem niedrigen Rds(on) von 1,2 mΩ. Dies ermöglicht eine effizientere Vcore-Versorgung der CPU. Combo Caps Eine Kombination von Polymer-Kondensatoren von mit Kapazitäten von 820 uF und 100 uF, die eine gleichmäßigere, effizientere und besser reagierende CPU-Vcore-Versorgung bietet. 12K-Black-Caps von Nichicon Hochwertige 12K-Black-Kondensatoren mit einer Lebenserwartung von mindestens 12.000 Stunden. Verglichen mit den Gegenstücken auf anderen High-End-Mainboards, die lediglich eine Lebenserwartung von 10.000 Stunden aufweisen, bieten die von ASRock verwendeten 12K-Black-Caps von Nichicon eine 20 Prozent höhere Lebenserwartung und bieten eine höhere Stabilität und Zuverlässigkeit. I/O Armor Eine neu entwickelte Schutzabdeckung für all die kritischen Bauteile nahe dem hinteren I/O-Schild des Mainboards, die Schäden durch elektrostatische Ladung verhindern kann. Mattschwarzes PCB Ein neues, mysteriöses Farbschema aus Mattschwarz und Kupferfarbe, das zu den namhaften Komponenten auf ASRocks High-End-Mainboards passt. Hochverdichtetes Glasfaser-PCB Das hochverdichtete Glasfaser-PCB reduziert die Lücken zwischen den PCB-Lagen, um das Mainboard vor Kurzschlüssen durch Feuchtigkeit zu schützen. Digi Power Anders als traditionell gebaute Mainboards mit einer analogen Stromversorgung nutzt dieses Mainboard ein Design mit digitaler PWM (Pulsweitenmodulation), das die CPU mit einer effizienteren und gleichmäßigeren Vcore-Spannung versorgt. So wird die Zuverlässigkeit und die Lebensdauer des Mainboards stark verbessert. Wasserpumpen-Header Dies ist nicht nur ein herkömmlicher Header für CPU-Lüfter, sondern auch für Wasserpumpen! Dieser Header bietet eine Stromstärke von bis zu 1,5 Ampere, womit die populärsten Wasserpumpen unterstützt werden. Zudem können Nutzer die Spannung der Wasserpumpe anpassen, um ein besseres Kühlergebnis und eine geringere Geräuschentwicklung zu erzielen. ARTIKEL 01 SPEZIFIKATION ATXASRock Super AlloySupports 7th and 6th Generation Intel® Core™ i7 / i5 / i3 / Pentium® / Celeron® Processors (Socket 1151)*8th Gen Intel® Core™ desktop processors are supported with Intel® 300 Series chipset motherboards onlySupports DDR4 3733+(OC)4 PCIe 3.0 x16, 1 PCIe 3.0 x1AMD 3-Way CrossFireX™, NVIDIA® Quad SLI™Graphics Output Options: HDMI, Display Port7.1 CH HD Audio (Realtek ALC1220 Audio Codec), Supports Purity Sound™ 4 & DTS Connect10 SATA3, 3 Ultra M.2 (PCIe Gen3 x4 & SATA3)2 USB 3.1 Gen2 10Gb/s (1 Type-A + 1 Type-C), 9 USB 3.1 Gen1 (4 Front, 4 Rear, 1 Vertical Type A)Dual Intel® Gigabit LANIntel® 802.11ac WiFi + BT 4.0ASRock RGB LEDIntel® Optane™ Memory Ready Einzigartige FeaturesASRock USB 3.1 Gen2 - ASRock USB 3.1 Gen2 Type-A Port (10 Gb/s) - ASRock USB 3.1 Gen2 Type-C Port (10 Gb/s) ASRock Super Alloy - XXL Aluminum Alloy Heatsink - Premium 60A Power Choke - Premium Memory Alloy Choke (Reduces 70% core loss compared to iron powder choke) - Dual-Stack MOSFET (DSM) - Combo Caps - Nichicon 12K Black Caps (100% Japan made high quality conductive polymer capacitors) - I/O Armor - Matte Black PCB - High Density Glass Fabric PCB Intel® 802.11ac WiFi ASRock Steel Slots ASRock Ultra M.2 (PCIe Gen3 x4 & SATA3) ASRock Full Spike Protection ASRock Live Update & APP ShopCPU- Supports 7th and 6th Generation Intel® Core™ i7 / i5 / i3 / Pentium® / Celeron® Processors (Socket 1151) - Digi Power design - 12 Power Phase design - Supports Intel® Turbo Boost 2.0 Technology - Supports Intel® K-Series unlocked CPUs - Supports ASRock BCLK Full-range Overclocking - Supports ASRock Hyper BCLK Engine IIChipsatz- Intel® Z270Arbeitsspeicher- Dual Channel DDR4 Memory Technology - 4 x DDR4 DIMM Slots - Supports DDR4 3733+(OC)*/3600(OC)/3200(OC)/2933(OC)/2800(OC)/2400**/2133 non-ECC, un-buffered memory - Supports ECC UDIMM memory modules (operate in non-ECC mode) - Max. capacity of system memory: 64GB*** - Supports Intel® Extreme Memory Profile (XMP) 2.0 - 15μ Gold Contact in DIMM Slots *Please refer to Memory Support List on ASRock's website for more information. **7th Gen Intel® CPU supports DDR4 up to 2400; 6th Gen Intel® CPU supports DDR4 up to 2133. ***Due to the operating system limitation, the actual memory size may be less than 4GB for the reservation for system usage under Windows® 32-bit OS. For Windows® 64-bit OS with 64-bit CPU, there is no such limitation.BIOS- 2 x 128Mb AMI UEFI Legal BIOS with multilingual GUI support (1 x Main BIOS and 1 x Backup BIOS) - Supports Secure Backup UEFI Technology - ACPI 6.0 Compliant wake up events - SMBIOS 2.7 Support - CPU, GTCPU, DRAM, VPPM, PCH 1.0V, VCCIO, VCCST, VCCSA, VCCPLL Voltage Multi-adjustmentGrafik- Supports Intel® HD Graphics Built-in Visuals : Intel® Quick Sync Video with AVC, MVC (S3D) and MPEG-2 Full HW Encode1, Intel® InTru™ 3D, Intel® Clear Video HD Technology, Intel® Insider™, Intel® HD Graphics - Gen9 LP, DX11.3, DX12 - HWA Encode/Decode: VP8, HEVC 8b, VP9, HEVC 10b (For 7th Gen Intel® CPU) - HWA Encode/Decode: VP8, HEVC 8b; GPU/SW Encode/Decode: VP9, HEVC 10b (For 6th Gen Intel® CPU) - Max. shared memory 1024MB** - Dual graphics output: Support HDMI and DisplayPort 1.2 ports by independent display controllers - Supports HDMI with max. resolution up to 4K x 2K (4096x2160) @ 24Hz / (3840x2160) @ 30Hz - Supports DisplayPort 1.2 with max. resolution up to 4K x 2K (4096x2304) @ 60Hz - Supports Auto Lip Sync, Deep Color (12bpc), xvYCC and HBR (High Bit Rate Audio) with HDMI Port (Compliant HDMI monitor is required) - Supports HDCP with HDMI and DisplayPort 1.2 Ports - Supports Full HD 1080p Blu-ray (BD) playback with HDMI and DisplayPort 1.2 Ports *Intel® HD Graphics Built-in Visuals and the VGA outputs can be supported only with processors which are GPU integrated. **The size of maximum shared memory may vary from different operating systems. ***Due to chipset limitation, the Blu-ray playback of Intel® HD Graphics is only supported under Windows® 8 / 8 64-bit / 7 / 7 64-bit. ****Intel® InTru™ 3D is only supported under Windows® 8 / 8 64-bit / 7 / 7 64-bit.Audio- 7.1 CH HD Audio with Content Protection (Realtek ALC1220 Audio Codec) - Premium Blu-ray Audio support - Supports Surge Protection (ASRock Full Spike Protection) - Supports Purity Sound™ 4 - Nichicon Fine Gold Series Audio Caps - 120dB SNR DAC with Differential Amplifier - TI NE5532 Premium Headset Amplifier for Front Panel Audio Connector (Supports up to 600 Ohm headsets) - Pure Power-In - Direct Drive Technology - PCB isolate shielding - Impedance Sensing on Rear Out port - Individual PCB Layers for R/L Audio Channel - Gold Audio Jacks - 15μ Gold Audio Connector - Supports DTS ConnectLAN- Gigabit LAN 10/100/1000 Mb/s - 1 x Giga PHY Intel® I219V, 1 x GigaLAN Intel® I211AT - Supports Wake-On-LAN - Supports Lightning/ESD Protection (ASRock Full Spike Protection) - Supports Dual LAN with Teaming* - Supports Energy Efficient Ethernet 802.3az - Supports PXE *Not supported under Windows® 10Drahtloses LAN- Intel® 802.11ac WiFi Module (Free Bundle) - Supports IEEE 802.11a/b/g/n/ac - Supports Dual-Band (2.4/5 GHz) - Supports high speed wireless connections up to 433Mbps - Supports Bluetooth 4.0 / 3.0 + High speed class IISteckplätze- 4 x PCI Express 3.0 x16 Slots (PCIE2/PCIE3/PCIE4/PCIE5: single at x16 (PCIE2); dual at x8 (PCIE2) / x8 (PCIE4); triple at x8 (PCIE2) / x4 (PCIE4) / x4 (PCIE5). PCIE3: x4 mode )* - 1 x PCI Express 3.0 x1 Slot (Flexible PCIe) - Supports AMD Quad CrossFireX™, 3-Way CrossFireX™ and CrossFireX™ - Supports NVIDIA® Quad SLI™ and SLI™ - 1 x Vertical M.2 Socket (Key E) with the bundled WiFi-802.11ac module (on the rear I/O) - 15μ Gold Contact in VGA PCIe Slot (PCIE2) *Supports NVMe SSD as boot disksSpeicherplatz- 6 x SATA3 6.0 Gb/s Connectors, support RAID (RAID 0, RAID 1, RAID 5, RAID 10, Intel® Rapid Storage Technology 15 and Intel® Smart Response Technology), NCQ, AHCI and Hot Plug* - 4 x SATA3 6.0 Gb/s Connectors by ASMedia ASM1061, support NCQ, AHCI and Hot Plug - 2 x SATA Express 10 Gb/s Connectors** - 3 x Ultra M.2 Sockets, support M Key type 2230/2242/2260/2280 M.2 SATA3 6.0 Gb/s module and M.2 PCI Express module up to Gen3 x4 (32 Gb/s)*** *M21, SATA30 and SATA31 share lanes. If either one of them is in use, the others will be disabled. M22, SATA34 and SATA35 share lanes. If either one of them is in use, the others will be disabled. If M23 is occupied by a SATA-type M.2 device, SATA33 will be disabled. **Support to be announced ***Supports Intel® Optane™ Technology Supports NVMe SSD as boot disks Supports ASRock U.2 KitAnschluss- 1 x TPM Header - 1 x Power LED and Speaker Header - 1 x AURA RGB LED Header* - 1 x CPU Fan Connector (4-pin)** - 1 x CPU Optional/Water Pump Fan Connector (4-pin) (Smart Fan Speed Control)*** - 2 x Chassis Fan Connectors (4-pin) (Smart Fan Speed Control) - 1 x Chassis Optional/Water Pump Fan Connector (4-pin) (Smart Fan Speed Control)**** - 1 x 24 pin ATX Power Connector (Hi-Density Power Connector) - 1 x 8 pin 12V Power Connector (Hi-Density Power Connector) - 1 x Front Panel Audio Connector (15μ Gold Audio Connector) - 1 x Thunderbolt™ AIC Connector (5-pin)***** - 3 x USB 2.0 Headers (Support 6 USB 2.0 ports) (Intel® Z270) (Supports ESD Protection (ASRock Full Spike Protection)) - 2 x USB 3.1 Gen1 Headers (Support 4 USB 3.1 Gen1 ports) (ASMedia ASM1074 hub) (Supports ESD Protection (ASRock Full Spike Protection)) - 1 x Vertical Type A USB 3.1 Gen1 (Intel® Z270) - 1 x Dr. Debug with LED - 1 x XMP Switch *Supports up to 12V/3A, 36W LED Strip. **The CPU Fan Connector supports the CPU fan of maximum 1A (12W) fan power. ***The CPU Optional/Water Pump Fan supports the water cooler fan of maximum 1.5A (18W) fan power. ****The Chassis Optional/Water Pump Fan supports the water cooler fan of maximum 1.5A (18W) fan power. CPUOPT/WPUMP, CHAFAN1, CHAFAN2 and CHAFAN3/WPUMP can auto detect if 3-pin or 4-pin fan is in use. *****Only one Thunderbolt™ AIC Card is supported.Blende- 2 x Antenna Ports - 1 x PS/2 Mouse/Keyboard Port - 1 x HDMI Port - 1 x DisplayPort 1.2 - 1 x Optical SPDIF Out Port - 1 x USB 3.1 Gen2 Type-A Port (10 Gb/s) (ASMedia ASM2142) (Supports ESD Protection (ASRock Full Spike Protection)) - 1 x USB 3.1 Gen2 Type-C Port (10 Gb/s) (ASMedia ASM2142) (Supports ESD Protection (ASRock Full Spike Protection)) - 4 x USB 3.1 Gen1 Ports (Intel® Z270) (Supports ESD Protection (ASRock Full Spike Protection)) - 2 x RJ-45 LAN Ports with LED (ACT/LINK LED and SPEED LED) - 1 x Clear CMOS Switch - HD Audio Jacks: Rear Speaker / Central / Bass / Line in / Front Speaker / Microphone (Gold Audio Jacks)Software und UEFISoftware - ASRock A-Tuning - ASRock AURA RGB LED - ASRock APP Charger - ASRock XFast LAN UEFI - ASRock EZ Mode - ASRock Full HD UEFI - ASRock My Favorites in UEFI - ASRock Instant Flash - ASRock Internet Flash - ASRock Crashless BIOS - ASRock UEFI System Browser - ASRock UEFI Tech Service - ASRock Easy RAID Installer *These utilities can be downloaded from ASRock Live Update & APP Shop.Support-CD- Drivers, Utilities, AntiVirus Software (Trial Version), Google Chrome Browser and ToolbarProduktzubehör- Quick Installation Guide, Support CD, I/O Shield - 4 x SATA Data Cables - 1 x ASRock SLIBridge2S Card - 1 x ASRock SLIHBBridge2S Card - 2 x ASRock WiFi 2.4/5 GHz Antennas - 3 x Screws for M.2 SocketsHardware überwachung- Temperature Sensing: CPU, CPU Optional/Water Pump, Chassis, Chassis Optional/Water Pump Fans - Fan Tachometer: CPU, CPU Optional/Water Pump, Chassis, Chassis Optional/Water Pump Fans - Quiet Fan (Auto adjust chassis fan speed by CPU temperature): CPU, CPU Optional/Water Pump, Chassis, Chassis Optional/Water Pump Fans - Fan Multi-Speed Control: CPU, CPU Optional/Water Pump, Chassis, Chassis Optional/Water Pump Fans - Voltage monitoring: +12V, +5V, +3.3V, CPU Vcore, DRAM, VPPM, PCH 1.0V, VCCSA, VCCSTFormfaktor- ATX Form Factor: 12.0-in x 9.6-in, 30.5 cm x 24.4 cmBetriebssystem- Microsoft® Windows® 10 64-bit (For 7th Gen Intel® CPU) - Microsoft® Windows® 10 64-bit / 8.1 64-bit / 7 32-bit / 7 64-bit (For 6th Gen Intel® CPU)* *To install Windows® 7 OS, a modified installation disk with xHCI drivers packed into the ISO file is required. Please check our User Manual for more detailed instructions. For the updated Windows® 10 driver, please visit ASRock's website for details.Zertifizierungen- FCC, CE - ErP/EuP ready (ErP/EuP ready power supply is required) ARTIKEL 02: CPU Intel Core i7 6700K (4x 4.00GHz So.1151) BESCHREIBUNG Auf der Suche nach dem perfekten Prozessor werden Sie an den 6th Generation Intel Core i7-6700K und i5-6600K nicht vorbeikommen. Nutzen Sie umfangreiche Übertaktungsmöglichkeiten. Es stehen Ihnen keinerlei Hindernisse im Weg. Sie tunen maßgebliche Eigenschaften Ihres Systems, wie Geschwindigkeit, Power oder Speicherkapazität ohne Einschränkungen und Abriegelungen. Mit der Unterstützung von DDR4 unterstützen die Prozessoren den aktuellsten Memory-Standard für bis zu 64 GB Kapazität. Sowohl die i7- als auch die i5-Cores verfügen über Intel Turbo Boost 2.0 Technologie, die der Leistung nochmal einen extra Schub verleiht. Sie ermöglicht jedem Prozessorkern die Arbeit an zwei Tasks zur gleichen Zeit, das bedeutet verbessertes Multitasking und eine Beschleunigung des Workflows. Es passiert mehr und das in kürzerer Zeit. Genießen Sie Videos in einer unvergleichlichen Authentizität mittels Ultra HD 4K. Dafür unterstützen die Intel Core i7 und i5 HEVC, VP8 und VP9. Die Intel Quick Sync Video Technologie versorgt die meisten Video-Ressourcen mit mehr Tempo, sodass der Benutzer diese in Echtzeit kreieren und teilen kann und erlaubt ein Multi-Tasking ohne Unterbrechungen. ARTIKEL 02: SPEZIFIKATION Produktsammlung Intel® Core™ i7 Prozessoren der sechsten Generation Codename Produkte mit Bezeichnung Skylake Prozessornummer i7-6700K Einführungsdatum Q3'15 Lithographie 14 nm Anzahl der Kerne 4 Anzahl der Threads 8 Grundtaktfrequenz des Prozessors 4,00 GHz Max. Turbo-Taktfrequenz 4,20 GHz Cache 8 MB SmartCache Bustaktfrequenz 8 GT/s DMI3 Anzahl der QPI-Links 0 Verlustleistung (TDP) 91 W Embedded-Modelle erhältlich Nein Datenblatt Jetzt anzeigen Produktbeschreibung Jetzt anzeigen Max. Speichergröße (abhängig vom Speichertyp) 64 GB Speichertypen DDR4-1866/2133, DDR3L-1333/1600 @ 1.35V Max. Anzahl der Speicherkanäle 2 Max. Speicherbandbreite 34.1 GB/s Unterstützung von ECC-Speicher ‡ Nein Prozessorgrafik ‡ Intel® HD-Grafik 530 Grundtaktfrequenz der Grafik 350 MHz Max. dynamische Grafikfrequenz 1.15 GHz Max. Videospeicher der Grafik 64 GB Videoausgang eDP/DP/HDMI/DVI 4K-Unterstützung Yes, at 60Hz Max. Auflösung (HDMI 1.4)‡ 4096x2304@24Hz Max. Auflösung (DP)‡ 4096x2304@60Hz Max. Auflösung (eDP – integrierter Flachbildschirm)‡ 4096x2304@60Hz Max. Auflösung (VGA)‡ N/A Unterstützung für DirectX* 12 OpenGL* Unterstützung 4.5 Intel® Quick-Sync-Video Ja Intel® InTru™ 3D-Technik Ja Intel® Clear-Video-HD-Technologie Ja Intel® Clear-Video-Technik Ja Anzahl der unterstützten Bildschirme ‡ 3 Gerätekennung 0x1912 Skalierbarkeit 1S Only PCI-Express-Version 3,0 PCI-Express-Konfigurationen ‡ Up to 1x16, 2x8, 1x8+2x4 Maximale Anzahl der PCI-Express-Lanes 16 Geeignete Sockel FCLGA1151 Max. CPU-Bestückung 1 Thermische Spezifikation des Kühlers PCG 2015D (130W) T CASE 64°C Gehäusegröße 37.5mm x 37.5mm Halogenarme Modelle erhältlich No Intel® Optane™ Speicher unterstützt ‡ Nein Intel® Turbo-Boost-Technik ‡ 2,0 Intel® vPro™ Plattformqualifizierung ‡ Nein Intel® Hyper-Threading-Technik ‡ Ja Intel® Virtualisierungstechnik (VT-x) ‡ Ja Intel® Directed-I/O-Virtualisierungstechnik (VT-d) ‡ Ja Intel® VT-x mit Extended Page Tables (EPT) ‡ Ja Intel® TSX-NI Ja Intel® 64 ‡ Ja Befehlssatz 64-bit Erweiterungen des Befehlssatzes Intel® SSE4.1, Intel® SSE4.2, Intel® AVX2 Inaktivitätsstatus Ja Erweiterte Intel SpeedStep® Technologie Ja Thermal-Monitoring-Technik Ja Intel® Identity-Protection-Technik ‡ Ja Intel® Stable-Image-Plattform-Programm (SIPP) Nein Intel® AES New Instructions Ja Secure Key Ja Intel® Software Guard Extensions (Intel®SGX) Yes with Intel® ME Intel® Memory Protection Extensions (Intel® MPX) Ja Intel® OS Guard Ja Intel® Trusted-Execution-Technik ‡ Nein Execute-Disable-Bit ‡ Ja Intel® Boot Guard Ja ARTIKEL 03: Garfikkarte MSI Radeon R9 R290 GAMING 4G BESCHREIBUNG MSI R9 290 Gaming 4G, mit dem Twin Frozr IV-Kühler. Einige der herausragenden Punkte sind 4 GB GDDR5 (1250 MHz), das einen breiten 512-Bit-Bus und den 1007-MHz-Kerntakt im Auslieferungszustand verwendet. Dies überträgt Daten durch 2.560 Shader-Einheiten und 64 ROPs. Natürlich basiert es auf der GCN2-Architektur. MSI hat mit seinen Komponenten der Militärklasse, wie Solid Caps, Hi-C Cap und Solid State Drosseln, auch einen eigenen Akzent auf die Karte gelegt. Dies führt zu niedrigeren Temperaturen, einer besseren Energieeffizienz und einer längeren Lebensdauer. MSI hat auch seine „Gaming App“, die im Wesentlichen Übertakten mit einem Knopfdruck ist, oder die Umkehrung ist ein stiller Modus. Im Auslieferungszustand läuft die Karte an den Spieluhren. Als nächstes kommt der Twin Frozr IV-Kühler. Wie wir deutlich sehen können, werden immer noch die beiden großen Lüfter verwendet, um den relativ dicht gepackten Aluminiumkühlkörper bei seiner Arbeit zu halten. Dieses Design verwendet auch eine „Superpipe“ (eine größere Heatpipe als normal), um mehr Wärme vom GPU-Kern abzuleiten. MILITARY CLASS COMPONENT - Einer der entscheidenden Faktoren für die Leistung ist die Qualität der verwendeten Komponenten. Aus diesem Grund verwendet MSI für seine Spielekarten nur nach MIL-STD-810G zertifizierte Komponenten, da sich nur diese Komponenten als widerstandsfähig gegen die schwierigen Umstände extremen Spielens und Übertaktens erwiesen haben. SOLID CAP - One Mit ihrem Aluminiumkern-Design waren Solid CAPs eine Grundvoraussetzung für High-End-Mainboard-Designs und bieten einen geringeren äquivalenten Serienwiderstand (ESR) sowie eine Lebensdauer von über 10 Jahren. Hi-C CAP - Ein Hi-C CAP ist ein sehr kleiner, aber sehr effizienter Kondensator. Neben dem ausreichenden Abstand um einen CPU-Sockel für den Einbau großer Kühler wird auch eine Energieeffizienz von 93% erreicht. Dank Hi-c CAPs MSI-Mainboards sind sie die energieeffizientesten auf dem Markt. SOLID STATE CHOKE - Es handelt sich um eine neue Generation von Form-in-One-Drosseln, die bei starker Belastung keine Vibrationsgeräusche erzeugen und eine um 37,5% höhere Stromabgabe als herkömmliche Ringkeile bieten. Dies ist sehr wichtig, wenn die GPU übertaktet oder stark ausgelastet ist, da sie noch mehr Strom benötigt, der über diese Komponente bereitgestellt werden kann. GAMING APP OC-Modus - Optimieren Sie den Kerntakt und die Lüftergeschwindigkeit, um eine optimale Leistung zu erzielen. Spielemodus (Standard) - Bietet ein stabiles Spielerlebnis mit höherem Kerntakt. Silent Mode - Die beste Betriebsumgebung mit fabelhafter Geräuscharmut. ADVANCED TWIN FROZR IV - Der Twin Frozr von MSI ist der branchenweit führende Grafikkartenkühler. Der erste Twin Frozr hat den Dual-Fan-Trend auf den Weg gebracht, und heute bleibt MSI seinem Dual-Slot-Design mit zwei Lüftern treu, bei dem andere auf weniger wirksame Mittel zurückgreifen müssen. Der andere Teil, den der Twin Frozr-Kühler verwendet, ist ein großes Gitter aus Aluminiumlamellen Array, das eine große Fläche zum Kühlen bietet. Die Wärme von der GPU wird mithilfe von Heatpipes mit der speziellen SuperPipe-Technologie von MSI an das Lamellengitter übertragen. SuperPipes übertragen Wärme doppelt so schnell wie herkömmliche Heatpipes, sodass eine MSI GAMING-Grafikkarte kühler bleibt als die Konkurrenz. Darüber hinaus bietet MSI die gesamte neue Airflow Control-Technologie für Twin Frozr an. Diese neue Thermotechnik leitet den Luftstrom durch einen speziellen Deflektor auf dem Kühlkörper zu den Wärmerohren, sodass mehr Luftstrom direkt zu den Wärmerohren geleitet werden kann. Darüber hinaus vergrößert dieses exklusive Kühlkörperdesign die Fläche des Kühlkörpers, so dass die Effizienz der Ableitung noch weiter gesteigert wird. ARTIKEL 03 SPEZIFIKATION GPUHawaii XTFertigung28 nmTransistoren6,2 MilliardenGPU-Takt (Base Clock)-GPU-Takt (Boost Clock)1.030 MHzSpeichertakt1.250 MHzSpeichertypGDDR5Speichergröße4.096 MBSpeicherinterface512 BitSpeicherbandbreite320,0 GB/Sek.DirectX-Version11.2Shadereinheiten2.816Textur Units176ROPs64Pixelfüllrate65,9 GPixel/Sek.SLI/CrossFireCrossFire ARTIKEL 04: RAM CORSAIR VENGEANCE LPX 8GB (2 x 4GB) DDR4 DRAM 2400MHz C16 Memory Kit - Black CMK8GX4M2A2400C16 BESCHREIBUNG Der VENGEANCE LPX-Speicher ist für das Hochleistungs-Übertakten ausgelegt. Der Heatspreader besteht aus reinem Aluminium für eine schnellere Wärmeableitung. Die achtlagige Leiterplatte hilft beim Wärmemanagement und bietet überragenden Übertaktungsspielraum, hilft beim Wärmemanagement und bietet überragenden Übertaktungsspielraum. Kompatibilität getestet Eine Einstellung genügt, um sich automatisch auf die schnellste sichere Geschwindigkeit für Ihr VENGEANCE LPX-Kit einzustellen. Sie erhalten eine erstaunliche, zuverlässige Leistung ohne Abstürze oder anderes seltsames Verhalten. Wärmeverteiler aus Aluminium Der Overhead für das Übertakten wird durch die Betriebstemperatur begrenzt. Das einzigartige Design des VENGEANCE LPX-Wärmeverteilers leitet die Wärme optimal von den ICs weg und in den Kühlpfad Ihres Systems, sodass Sie sie stärker drücken können. Entwickelt für leistungsstarkes Übertakten Jedes VENGEANCE LPX-Modul besteht aus einer spezifischen Leistungsplatine und hochgeschirmten Speicher-ICs. Der effiziente Wärmeverteiler sorgt für eine effektive Kühlung, um das Übertaktungspotential zu verbessern. Flaches Design Der kleine Formfaktor macht es ideal für kleinere Gehäuse oder jedes System, bei dem der Innenraum knapp bemessen ist. Passen Sie zu Ihrem System Der DDR4-Formfaktor ist für die neuesten DDR4-Systeme optimiert und bietet höhere Frequenzen, eine größere Bandbreite und einen geringeren Stromverbrauch als DDR3-Module. VENGEANCE LPX DDR4-Module sind für DDR4-Systeme auf Kompatibilität getestet, um eine zuverlässig schnelle Leistung zu gewährleisten. Es gibt XMP 2.0-Unterstützung für problemloses automatisches Übertakten. Entwickelt für Enthusiasten. Weltberühmte Zuverlässigkeit Nicht umsonst vertrauen weltmeisterliche Overclocker, extreme Gaming-Enthusiasten und High-End-Systemhersteller CORSAIR auf leistungsstarke Speicher, die sie mit Vertrauen und Stolz installieren können. Egal, ob Sie Ihre eigenen Rekorde brechen oder einfach nur ein Traumspielgerät bauen, Sie können sich auf den Speicher von CORSAIR verlassen. Begrenzte lebenslange Garantie Für alle CORSAIR Speicherprodukte gilt eine eingeschränkte lebenslange Garantie. ARTIKEL 04: SPEZIFIKATION Memory ConfigurationDual / Quad ChannelMemory SeriesVENGEANCE LPXMemory TypeDDR4Memory Size8GB Kit (2 x 4GB)Tested Latency16-16-16-39Tested Voltage1.2VTested Speed2400MHzMemory ColorBLACKSPD Latency16-16-16-39SPD Speed2400MHzSPD Voltage1.2VSpeed RatingPC4-19200 (2400MHz)CompatibilityIntel 100 Series,Intel 200 Series,Intel 300 Series,Intel X299Heat SpreaderAnodized AluminumPackage Memory FormatDIMMPerformance ProfileXMP 2.0Package Memory Pin288 ARTIKEL 05: Netzteil (PSU) LEPA G650 - 650 Watt - Modular - Gold Zertifizierung BESCHREIBUNG DC-to-DC converter design, ensures system stability, High quality 105oC, Japanese-made capacitors, Hybrid Modular Design ARTIKEL 05: SPEZIFIKATION 80 Plus Gold certified to deliver up to 92% efficiencyDC-to-DC converter design ensures system stabilityDouble Forward circuit design provides high efficiencyHigh efficiency 5VSb circuit helps system meet EU ErP Lot 6 (2013) standardsSolid state capacitors and all Japanese-made capacitors provide great reliability140mm two-ball bearing cooling fan with thermal programmed speed controller delivers silent, cool operationHybrid modular cabling design with decent flat cables makes system upgrade and replacement easyPowerful single +12V rail output offers great compatibility with heavy-duty graphics cardsActive Power Factor Correction provides extremely high PF value of 0.99Universal AC Input from 100V - 240V (Full Range)Over Power, Over Voltage, Over Temperature, Short-circuit, Brown-out protection provide great safety to your systemATX12V version and EPS12V version compliant Und dazu gibt es noch zwei wenig gebrauchte 2,5" Festplatten, 1x Western Digital WD3200BEVT Scorpio Blue 320GB Festplatte/HDD 2,5" und 1x Seagate ST9500325AS Momentus 5400.6 500GB Festplatte/HDD 2,5" WIDERRUFSRECHT & GARANTIE & GEWÄHRLEISTUNG Privatverkauf - Kein Widerrufsrecht, keine Gewährleistung, keine Garantie. VERSAND Sie können eine Versandart oder auch Abholung in der Kaufabwicklung wählen. Unterhaltungselektronik Ein typisches Beispiel der Unterhaltungselektronik Unterhaltungselektronik ist ein Sammelbegriff für Elektrogeräte, die der Unterhaltung des Benutzers dienen. Früher wurde sie im Fachhandel Braune Ware genannt, da Fernseh- und Rundfunkgeräte häufig furnierte Holzgehäuse hatten, im Gegensatz zur Weißen Ware für Waschmaschinen und andere Haushaltsgeräte. Verkaufsladen für Unterhaltungselektronik Geräte der Unterhaltungselektronik kann man in drei Gruppen gliedern: Wiedergabe (teilweise auch Aufnahme und Bearbeitung) von Ton (Musik und Sprache), z. B. mit Radio, Kassettenrekorder, CD-Spieler, MD-Spieler, Stereoanlage, Autoradio, MP3-Spieler Wiedergabe (teilweise auch Aufnahme und Bearbeitung) von Stand- und Bewegtbildern (Foto, Film und Fernsehen), z. B. mit Fernsehgerät, Videorekorder, DVD-Spieler, Projektor Computerspiele: Handheld, Spielkonsole usw. Die Abgrenzung zu rein mechanischen Geräten (wie es z. B. frühe Grammophone, Foto- und Filmkameras waren) und zu optischen Geräten ist dabei fließend. Personal Computer, Tablets und Smartphones sind wegen ihrer vielfältigen Nutzungsweisen sowohl Unterhaltungs- als auch Gebrauchselektronik. Unterhaltungs- und Gebrauchselektronik für Konsumenten wird analog zu englisch consumer electronics als Verbraucherelektronik zusammengefasst.[1] Elektronische Unterhaltungsmedien können allein und zu Hause genutzt werden, während die ursprünglichen Entsprechungen wie Konzert, Theater und Gesellschaftsspiele immer auch soziale Aktivitäten und meist auch das Verlassen der eigenen Wohnung bedingen. Daher wird die Unterhaltungselektronik auch für die Vereinsamung der Menschen verantwortlich gemacht. Geschichte Die Geschichte der Unterhaltungselektronik beginnt mit Grundlagenerfindungen ab Mitte des 19. Jahrhunderts. Noch heute wird sie weiter geschrieben. 1840?1923: Von der Elektromechanik zur Elektronik 1840?1860 Alexander Bain stellt im Jahr 1843 Überlegungen zur Zerlegung von Bildern in Bildpunkte mit Helligkeitswerten an. 1848 erfindet Frederick Collier Bakewell den ersten elektromechanischen Bildtelegraphen. 1861?1880 Der Volksschullehrer Philipp Reis stellt 1861 das von ihm erfundene Telefon beim Physikalischen Verein in Frankfurt vor. Ganz nebenbei hat er damit auch den Vorläufer des Lautsprechers erfunden. 1867 zeigt der französische Dichter und Philosoph Charles Cros (1842?1888) mit seinem ?Paréophone? das Konstruktionsprinzip des Phonographen. Kommerzieller Erfolg ist der wenig ausgereiften Erfindung jedoch nicht beschieden. 1873 sagt James Clerk Maxwell (1831?1879) die Existenz elektromagnetischer Wellen theoretisch voraus und formuliert die Maxwellschen Gleichungen, die deren Eigenschaften beschreiben. Ferdinand Braun entdeckt 1874 den Gleichrichter-Effekt an Metallsulfiden und -oxiden. Beide schaffen damit wesentliche Grundlagen für die spätere Entwicklung der Funktechnik. 1877 erfindet Thomas Alva Edison (1847?1931) den Phonographen. Damit konnten erstmals Töne aufgenommen und wiedergegeben werden, und zwar zunächst auf Zylindern aus Zinnfolie. Ein Schalltrichter mit Membran und Nadel war so angeordnet, dass die Nadel mit der Zinnfolie Kontakt hatte. 1880 entdeckt der US-amerikanische Physiker Charles Sumner Tainter, dass viele technische Nachteile der Edisonschen Walzen beseitigt werden können, wenn man die Tonspur spiralförmig in die Oberfläche einer flachen, runden Scheibe eingraviert. Technische Probleme beenden seine Versuche nach kurzer Zeit. Dennoch gilt er als der Erfinder der Schallplatte. 1881?1900 Paul Nipkow entwickelt 1884 mit der Nipkowscheibe ein Verfahren, mit dem sich Bilder seriell abtasten und übertragen lassen. Er patentiert sein ?Elektrisches Teleskop?, lässt den Patentschutz aber schon 1886 wieder verfallen. Heinrich Hertz gelingt 1886 erstmals der experimentelle Nachweis elektromagnetischer Wellen ? die physikalische Grundlage für drahtlose Telegrafie und Rundfunk ist geschaffen. Ohne die nicht publizierten Versuche von Charles Sumner Tainter zu kennen, meldet der Deutsch-Amerikaner Emil Berliner 1887 sein Grammophon zum Patent an. Seine Schallplatten laufen zunächst mit 150 min?1. Sie werden direkt mit einer Handkurbel gedreht und mit einer Stahlnadel abgetastet. Diese überträgt die Schwingungen mechanisch auf eine Membran im Schalltrichter. Eigentlich ist der Übergang von der Walze zur Platte ? von der Tiefen- zur Seitenschrift ? in erster Linie dazu gedacht, Edisons Patente zu umgehen. Es zeigt sich aber schnell, dass die Platten sich leichter duplizieren und lagern lassen. Damit beginnt der Siegeszug der Schallplatte, die zunächst aus Zink oder Hartgummi, seit 1896 aus zerbrechlichem Schellack oder Bakelit besteht. 1888 gelingt Alexander Graham Bell (1847?1922) durch die Verwendung von Wachszylindern statt solchen aus Zinnfolie eine beträchtliche Reduzierung der Störgeräusche bei der Wiedergabe phonographischer Aufzeichnungen. Damit ist der Weg frei für den kommerziellen Erfolg von Edisons verbessertem Phonographen. Der Amerikaner Oberlin Smith beschreibt im gleichen Jahr ein Verfahren zur Schallaufzeichnung mit einem metallspänehaltigen Baumwollfaden. Er wird damit zum Wegbereiter der Tonbandaufzeichnung. Grammophone erhalten durch Federmotor (1889) und elektrischen Antrieb (1890) bessere Gleichlaufeigenschaften und erhöhten Komfort. Der elektrische Antrieb macht auch die die erste Musikbox mit Schallzylindern möglich ? noch vor der breiten Einführung von Schallplatten. Thomas Alva Edison (1847?1931) entdeckt ebenfalls im Jahr 1890 den glühelektrischen Effekt. Zur Rotglut erhitzte Metalle sind von einer Wolke freier Elektronen umgeben. Dies ist die Grundlage aller Elektronenröhren bis hin zur Bildröhre. Die Erfindung der Selen-Fotozelle um 1893 ermöglicht erstmals die Umwandlung von Helligkeitswerten des Lichts in elektrische Signale. Das Prinzip hat zwar in der Bildtelegrafie und Fernsehtechnik nur ein kurzes Gastspiel, in Belichtungsmessern für Fotografen bleibt Selen aber mehr als 50 Jahre präsent. Der Kinematograph von Auguste Lumière erlaubt im Jahr 1895 erstmals die Wiedergabe von Bewegtbildern. Im selben Jahr stellen die Brüder Emil und Max Skladanowsky im Berliner Wintergarten ihren Projektionsapparat für lebende Bilder, das ?Bioscop?, vor. Ferdinand Braun erfindet 1897 die ?trägheitslose Kathodenstrahl-Oszillographen-Röhre?, also die bis ins 21. Jahrhundert hinein prinzipiell unveränderte Fernseh-Bildröhre. Im gleichen Jahr überträgt der Italiener Guglielmo Marconi drahtlos telegrafische Nachrichten durch elektromagnetische Wellen über eine Distanz von fünf Kilometern. Dem dänischen Physiker Valdemar Poulsen gelingt 1898 mit seinem Telegraphon die weltweit erste magnetische Tonaufzeichnung und -wiedergabe. Als magnetisierbaren Träger verwendet er 1 mm starken Stahldraht. Motivation für seine Konstruktion war die Idee eines Anrufbeantworters, der etwa zur gleichen Zeit aber nicht von ihm, sondern vom französischen Ingenieur Kumberg eher erfolglos als Telephonograph vorgestellt wird. Im gleichen Jahr demonstriert Nikola Tesla die erste Funk-Fernsteuerung an einem Schiffsmodell. Der berühmte Hund ?Nipper? wird 1899 mit dem Slogan ?His Master?s Voice? das Markenzeichen für Grammophone und Schallplatten. Platten werden erstmals mit dem Verfahren Wachsmaster und Metallmatrize hergestellt, dem die Plattenindustrie bis zum Beginn des digitalen Zeitalters treu geblieben ist. 1901?1911 1902 patentiert Otto von Bronk sein ?Verfahren und Vorrichtung zum Fernsichtbarmachen von Bildern und Gegenständen unter vorübergehender Auflösung der Bilder in parallelen Punktreihen?. Dieses Patent, ursprünglich wohl mehr für die Bildtelegraphie gedacht, sollte später für die Entwicklung des Farbfernsehens nach dem NTSC-Verfahren bedeutsam werden. Schallplatten erhalten im gleichen Jahr erstmals bedruckte Papieretiketten in der Mitte. Obwohl Edison ein Verfahren zur Vervielfältigung seiner Phonographenwalzen entwickelt, ist der Siegeszug der Schallplatte nicht mehr aufzuhalten. Der Berliner Albert Parker Hanson reicht 1902 in Deutschland, 1903 auch in England, sein Patent ?Elektrische Kabel? ein. Hinter dem unscheinbaren Titel steckt die Erfindung der Leiterplatte. Zur rationellen Fertigung immer wieder gleicher elektrischer Verbindungen, damals in Telefon-Vermittlungsstellen benötigt, sollen nicht mehr handverlötete Drähte eingesetzt werden. Stattdessen werden Leiterbahnen aus dünnem Messingblech maschinell ausgestanzt und ein- oder beidseitig auf paraffiniertes Papier geklebt. Erst 50 Jahre später wird diese Erfindung ? mit verschiedenen Weiterentwicklungen ? in der Unterhaltungselektronik angewendet. 1903 liefert Guglielmo Marconi den Beweis, dass drahtlose telegrafische Kommunikation auch auf große Distanzen ? z. B. über den Atlantik ? möglich ist. Er verwendet dazu einen von Ferdinand Braun entwickelten Sender. 1904 werden von der Firma Odeon (Berlin) auf der Leipziger Frühjahrsmesse erstmals doppelseitige Platten und solche mit einem Durchmesser von 30 cm angeboten, um die Spieldauer auf bis zu 11 Minuten (5,5 Minuten pro Seite) zu erhöhen. Der deutsche Physiker Arthur Korn entwickelt in gleichen Jahr das erste brauchbare Verfahren zur Bildtelegrafie. Der Engländer Sir John A. Fleming erfindet 1905 die erste Elektronenröhre, eine Gleichrichter-Röhre, auch Diode genannt. 1906 patentiert Robert von Lieben sein ?trägheitslos arbeitendes Kathodenstrahl-Relais?. Bis 1910 entwickelt er dieses zur ersten wirklichen Verstärkerröhre, einer Triode, weiter. Fast gleichzeitig erfindet auch der Amerikaner Lee de Forest die Triode. Max Dieckmann und Gustav Glage benutzen im gleichen Jahr eine Braunsche Röhre zur Wiedergabe von 20-zeiligen Schwarz-weiß-Bildern. Ebenfalls 1906 meldet der amerikanische General und Forscher H. H. C. Dunwoody seinen Carborundum-Stahl-Detektor für den Empfang von Funksendungen zum Patent an. Dabei handelt es sich um das erste Halbleiter-Bauelement in der Geschichte. G. W. Pickard schlägt zur gleichen Zeit einen Siliziumdetektor mit Spitzenkontakt zur HF-Gleichrichtung vor. Der Hüllkurvendetektor ist ein wichtiger Bestandteil jedes Rundfunkempfängers. Tausende von Amateuren basteln sich in den Folgejahren mit Bleiglanzkristall (Schwefel-Blei-Verbindung) und einigen einfachen Bauteilen ihre eigenen Radioempfänger. Da bei diesen einfachen Empfängern keine aktiven (verstärkenden) Bauteile eingesetzt werden, können nur starke Ortssender empfangen werden. 1907 setzt Rosenthal in seinem Bildtelegraphen erstmals eine Fotozelle ein. Lee de Forest patentiert das Audion-Schaltungsprinzip für Rundfunkempfänger, das er seit 1909 auch kommerziell verwertet. Allerdings verliert er bereits 1913 einen Patentstreit um die Erfindung der Triode gegen Robert von Lieben. 1911 entstehen erste Filmstudios in Hollywood und Potsdam-Babelsberg. 1912?1923 Trioden erhalten seit 1913 durch Hochvakuum im Glaskolben deutlich verbesserte Eigenschaften. im gleichen Jahr patentiert Alexander Meißner sein Verfahren ?Rückkopplung zur Erzeugung von Schwingungen?, also seine Entwicklung eines Radiosenders mit einer Elektronenröhre. Ebenfalls 1913 reicht der Engländer Arthur Berry ein Patent über die Herstellung gedruckter Schaltungen durch Ätzen von Metall ein. Um 1915 führt Carl Benedicks in Schweden grundlegende Untersuchungen über die elektrischen Eigenschaften von Silizium und Germanium durch. Durch die aufblühende Röhrentechnik bleibt jedoch das Interesse an Halbleitern bis nach dem Zweiten Weltkrieg gering. Basierend auf früheren Erkenntnissen des Engländers Oliver Lodge entwickelt der Franzose Lucien Levy 1917 einen Radioempfänger mit Frequenzabstimmung durch einen Schwingkreis. In Deutschland experimentieren Hans Bredow und Alexander Meißner mit Röhrensendern und Rückkopplungsempfängern (Militärfunkstation Königs Wusterhausen). In Potsdam-Babelsberg wird ebenfalls 1917 die Universum Film AG (UFA) gegründet. Zwei Jahre später gründen Charlie Chaplin und andere in Hollywood die Filmproduktions- und Verleihgesellschaft ?United Artists?. Am 2. November 1920 nimmt die erste regelmäßig arbeitende Rundfunkstation KDKA in Philadelphia (USA) den Dienst auf. Erstmals wird Elektronik eingesetzt, um einem breiten Publikum Information und Unterhaltung zu übermitteln. In Deutschland wird vom posteigenen Langwellensender Königs Wusterhausen erstmals ein Instrumentalkonzert im Rundfunk übertragen. Erst ab 1922 wird von dort regelmäßiger (und gebührenpflichtiger) Rundfunk, der ?Wirtschaftsrundspruchdienst?, betrieben. 1922 wird das Radio mobil: J. McWilliams Stone erfindet den ersten tragbaren Radioempfänger der Welt. George Frost baut das erste ?Autoradio? in seinen Ford Model T ein. 1923 wird zu einem wichtigen Jahr für die Weiterentwicklung der Röhren- und Fernsehtechnik: Der 16-jährige Manfred von Ardenne (1907?1997) entwickelt zusammen mit Siegmund Loewe (1885?1962) die erste Mehrfachröhre, die weitere Bauteile enthält und so zum Vorläufer der Integrierten Schaltung wird. Loewe baut mit der Röhre seinen ersten Rundfunkempfänger ?OE333?. Der ungarische Ingenieur Dénes von Mihály entwickelt ein Bildabtastsystem mit Zeilenablenkung, bei dem jeder Punkt eines Bildes zehnmal pro Sekunde von einer Selenzelle abgetastet wird. August Karolus (1893?1972) erfindet die Kerr-Zelle zur nahezu trägheitslosen Umwandlung von elektrischen Impulsen in Lichtsignale. Er erhält ein Patent für sein Verfahren zum Übertragen von Diapositiven, für das er einen Diapositiv-Geber mit Nipkow-Scheibe und einen aus Kohlebogenlampe, Kerrzelle und Nipkow-Scheibe bestehenden Bildschreiber verwendet. Vladimir Kosma Zworykin patentiert die erste Bildaufnahmeröhre, Ikonoskop genannt. Im gleichen Jahr gründet der deutsche Staatssekretär Hans Bredow (?Vater des Rundfunks?) die erste Deutsche Rundfunkorganisation. Durch die Aufhebung des Rundfunkempfangsverbots und die Eröffnung des ersten Rundfunksenders für Privatpersonen beginnt die Entwicklung des Radios zum Massenmedium. 1924?1959: Vom Radio zu Stereotechnik und Fernsehen 1924 Auf der Berliner Funkausstellung werden die ersten kommerziellen Röhren-Rundfunkempfänger vorgestellt. 1925 Die Brunswick Co., Dubuque (USA), liefert mit dem ?Brunswick Panatrope? den ersten elektrischen Plattenspieler mit ?Schalldose?, Röhrenverstärker und Lautsprecher. In den amerikanischen Bell Laboratories erlangt ein Verfahren zur Aufnahme von Schallplatten mittels Mikrophon und Röhrenverstärker die Serienreife. Auch in Deutschland wird daran seit 1922 gearbeitet. 1925 erscheinen in beiden Ländern die ersten elektrisch aufgenommenen Platten. Auf der Leipziger Frühjahrsmesse wird die erste Kleinbildkamera ?Leica? der Öffentlichkeit vorgestellt. John Logie Baird gelingt die erste Fernsehvorführung eines lebenden Kopfes mit einer Auflösung von 30 senkrechten Zeilen unter Verwendung einer Nipkow-Scheibe. August Karolus demonstriert in Deutschland Fernsehen mit 48 Zeilen und zehn Bildwechseln pro Sekunde. Derweil arbeiten Max Dieckmann und Rudolf Hell an einer "Bildzerlegungsröhre für Fernsehen", der ersten rein elektronischen Bildaufnahmeröhre. 1926 Edison entwickelt die erste ?Langspielplatte?. Durch dichtere Rillen (16 Rillen auf 1 mm) und die Reduzierung der Drehzahl auf 80 min?1 (später 78 min?1) steigt die Spieldauer auf bis zu 2 mal 20 Minuten. Damit trägt er selbst zum Niedergang seines Phonographen-Geschäfts bei. Die Deutsche bahn bietet einen Funktelefondienst in fahrenden Zügen zwischen Berlin und Hamburg an ? die Idee des Mobilfunks ist geboren. John Logie Baird entwickelt den ersten kommerziellen Fernsehempfänger der Welt. Erst ab 1930 wird er als ?Televisor? zum Preis von 20 englischen Pfund verkauft. 1927 Die ersten vollelektronischen Musikboxen (?Juke Boxes?) kommen in den USA auf den Markt. In Deutschland verkauft die Deutsche Grammophon aufgrund eines Lizenzabkommens mit der Brunswick-Balke-Collander Company ihre ersten vollelektronischen Plattenspieler. Das erste industriell gefertigte Autoradio, der ?Philco Transitone? von der ?Storage Battery Co.? in Philadelphia (USA), kommt auf den Markt. Die erste Kurzwellen-Rundfunkübertragung nach Übersee wird von der Station PCJJ der Philips-Werke in Eindhoven in die niederländischen Kolonien ausgestrahlt. Der erste regelmäßigen Bildtelegrafie-Dienst wird zwischen Berlin und Wien eröffnet. Erste kommerzielle Tonfilme (?The Jazz Singer?, USA) verwenden das ?Nadeltonverfahren?, bei dem synchron zur Filmvorführung Langspielplatten über Lautsprecher wiedergegeben werden. Erste öffentliche Fernsehübertragungen in Großbritannien von John Logie Baird zwischen London und Glasgow und in den USA von Frederic Eugene Ives (1882?1953) zwischen Washington und New York basieren noch auf elektromechanischen Verfahren. Der amerikanische Erfinder Philo Taylor Farnsworth (1906?1971) zeigt in Los Angeles das erste vollelektronische Fernsehsystem der Welt. John Logie Baird entwickelt den ersten Bildplattenspieler. 30-zeilige Fernsehbilder werden auf Schellackplatten gespeichert. Mit 78 min?1 mechanisch abgetastet, können die Bilder auf seinem ?Televisor? wiedergegeben werden. Leider ist mit dieser Technik keine Tonwiedergabe möglich. Auch kann sie mit der schnellen Entwicklung hin zu höheren Auflösungen beim Fernsehen nicht Schritt halten. Daher dauert es noch über 40 Jahre, bis die ersten kommerziellen Bildplattenspieler auf den Markt kommen. 1928 Fritz Pfleumer lässt sich das erste Tonbandgerät patentieren. Darin ist der seit 1890 übliche Stahldraht durch einen mit Eisenpulver beschichteten Papierstreifen als Aufnahmemedium ersetzt. Er wird damit nach Poulsen (1898) zum zweiten entscheidenden Wegbereiter der magnetischen Ton-, Bild- und Datenspeicherung. Dénes von Mihály präsentiert in Berlin einem kleinen Kreis die erste verbürgte Fernsehübertragung in Deutschland, nachdem er mindestens seit 1923 auf diesem Gebiet gearbeitet hat. August Karolus und die Firma Telefunken stellen auf der ?5. Großen Deutschen Funkausstellung Berlin 1928? den Prototyp eines Fernsehempfängers vor, der mit einer Bildgröße von 8 cm × 10 cm und einer Auflösung von etwa 10.000 Bildpunkten eine deutlich bessere Bildqualität liefert als frühere Geräte. Derweil gibt es in New York (USA) schon die ersten regelmäßigen Fernseh-Versuchssendungen des Senders WGY, den die Firma General Electric Company (GE) betreibt. Auch unregelmäßige Fernsehnachrichten und Fernsehspiele strahlt dieser Sender von 1928 an aus. Ebenfalls in den USA wird der erste gewerblich hergestellte Fernsehempfänger von der Daven Corporation in Newark zum Preis von 75 Dollar angeboten. John Logie Baird überträgt erstmals Fernsehbilder international, und das gleich über den Atlantik von London nach New York. Er demonstriert auch die weltweit erste Farbfernsehübertragung in London. 1929 Edison zieht sich aus dem Phonogeschäft zurück ? die Schallplatte hat den Zylinder endgültig verdrängt. Die Firma Columbia entwickelt den ersten tragbaren Plattenspieler, der sich an jedes Röhren-Radiogerät anschließen lässt. Es entstehen auch die ersten Radio/Plattenspieler-Kombinationsgeräte, Vorläufer der bis in die 1960er Jahre üblichen Musiktruhen. Der deutsche Physiker Curt Stille (1873?1957) führt bei der ?Deutschen Kino-Gesellschaft? ein Magnet-Tonsystem vor, bei dem als Tonträger perforiertes Stahlband verwendet wird. Zunächst hat das Magnettonverfahren keinen Erfolg. Erst viel später wird es für Amateurfilme wiederentdeckt, weil es eine einfache Möglichkeit zur Nachvertonung bietet. Vorher hat Stille schon ein ?Daylygraph? genanntes Magnettongerät mit Verstärker und Entzerrer und ein ausgereiftes Magnettondiktiergerät namens ?Textophon? entwickelt. Basierend auf Patenten, die er von Stille erworben hat, bringt der Deutsch-Engländer Ludwig Blattner mit dem ?Blattnerphone? das erste magnetische Tonaufzeichnungsgerät auf den Markt. Aufgezeichnet wird auf einem dünnen Stahlband. Der erste Tonfilm nach dem Lichttonverfahren wird uraufgeführt. Seit Anfang der 1920er Jahre haben verschiedene Leute an diesem Verfahren entwickelt, bei dem der Film eine optische Tonspur besitzt. Die Tonspur trägt Helligkeitsschwankungen und wird von einer Fotozelle abgetastet, die diese in elektrische Schwingungen verwandelt. Nach Verstärkung erfolgt die Wiedergabe über Lautsprecher. In den ersten Jahren des Tonfilms konkurriert dieses Lichttonverfahren mit dem Nadeltonverfahren, bevor sich das Lichttonverfahren durchsetzen kann. Dasselbe optoelektronische Verfahren ermöglicht auch erstmals die Nachbearbeitung von Musikaufnahmen vor der Herstellung von Schallplatten daraus. Der Regisseur Carl Froelich (1875?1953) dreht ?Die Nacht gehört uns?, den ersten deutschen Tonfilm. 20th Century Fox präsentiert in New York auf einer 8 m × 4 m großen Leinwand den ersten Breitwand-Spielfilm. Der Rundfunksender Witzleben beginnt in Deutschland mit der regelmäßigen Ausstrahlung von Fernseh-Testsendungen, zunächst auf Langwelle mit 30 Zeilen (=1.200 Bildpunkte) bei 12,5 Bildwechseln pro Sekunde. Es erscheinen erste Bauanleitungen für Fernsehempfänger. John Logie Baird beginnt in Großbritannien im Auftrag der BBC mit regelmäßigen Fernsehversuchsübertragungen für die Öffentlichkeit. Frederic Eugene Ives überträgt experimentell ein Farbfernsehbild von New York nach Washington. 1930 Manfred von Ardenne erfindet und entwickelt den Flying Spot Scanner, die europaweit erste vollelektronische Bildaufnahmeröhre. Statt der mechanischen Nipkowscheibe kann nun beim Fernsehen auch auf der Sendeseite ein elektronisches Bauteil nach dem Prinzip der Braun'schen Röhre eingesetzt werden. In Großbritannien werden die erste Fernsehwerbung und das erste Fernsehinterview ausgestrahlt. 1931 Der britische Ingenieur und Erfinder Alan Dower Blumlein (1903?1942) erfindet ?Binaural Sound?, heute als ?Stereo? bekannt. Er entwickelt die Stereo-Schallplatte und den ersten Dreiwege-Lautsprecher. Er dreht experimentelle Filme mit Stereoton. Danach wird er Leiter des Entwicklungsteams für das EMI-405-Zeilen-Fernsehsystem. Durch seinen frühen Tod im Zweiten Weltkrieg erlebt er den Erfolg seiner Erfindungen nicht mehr. Die Firma RCA Victor stellt der Öffentlichkeit die erste wirkliche Langspielplatte vor, die bei 35 cm Durchmesser und 33,33 min?1 eine ausreichende Spieldauer für ein ganzes Orchesterwerk bietet. Die neuen Plattenspieler sind aber zunächst so teuer, dass sie sich erst im zweiten Anlauf nach dem Zweiten Weltkrieg ? dann mit Vinylplatten ? breit durchsetzen. Der französische Physiker René Barthélemy führt in Paris erstmals öffentlich Fernsehen mit Ton vor. Auch die BBC startet in Großbritannien erste Tonversuche. Die öffentliche Weltpremiere des elektronischen Fernsehens ? also ohne elektromechanische Komponenten wie der Nipkow-Scheibe ? erfolgt auf der ?8. Großen Deutschen Funkausstellung Berlin 1931?. Döberitz/Pommern wird der erste deutsche Standort für einen Ton-Fernseh-Sender. Manfred von Ardenne lässt sich das Prinzip einer Farbbildröhre patentieren: Schmale Streifen Leuchtstoffe in den drei Primärfarben sind eng nebeneinanderliegend angeordnet, so dass sie sich mit dem Elektronenstrahldurchlauf zu weißem Licht ergänzen. Eine getrennte Ansteuerung der drei Farben ist aber noch nicht vorgesehen. 1932 Die Firmen AEG und BASF beginnen sich für das Magnetbandverfahren von Fritz Pfleumer (1928) zu interessieren. Sie entwickeln neue Geräte und Bänder, bei denen Zelluloid statt Papier als Trägermaterial dient. In Großbritannien sendet die BBC erstmals Radioprogramme zeitversetzt statt live, die vorher mit dem Blattnerphone (1929) aufgenommen worden sind. Die Firma Radiotelefon und Apparatefabrik Ideal AG (später Blaupunkt) stellt ein Autoradio vor, das mittels Bowdenzügen von der Lenksäule aus fernbedient werden kann. 1933 Nach der istischen Machtergreifung in Deutschland wird der Rundfunk endgültig zum politischen Instrument. Systematische Zensur soll Opposition verhindern und die ?arische Kultur? verbreiten. Die Serienfertigung des ?Volksempfängers VE 301? läuft an. Edwin H. Armstrong weist nach, dass frequenzmodulierte (FM) Funkübertragungen weniger störempfindlich sind als amplitudenmodulierte (AM). Das FM-Verfahren bleibt aber lange Zeit zu aufwändig für eine breite Einführung in Rundfunkempfängern. In den USA eröffnet das erste Autokino. 1934 Erste kommerzielle Stereo-Aufnahmen finden noch wenig Anklang ? die notwendigen Wiedergabegeräte sind noch zu teuer. Der Begriff ?High Fidelity? wird um diese Zeit geprägt. 1935 AEG und BASF stellen auf der Berliner Funkausstellung das Tonbandgerät ?Magnetophon K1? und die passenden Magnetbänder vor. Bei einem Brand in der Ausstellungshalle werden alle vier ausgestellten Geräte vernichtet. In Deutschland beginnt der weltweit erste regelmäßige Fernseh-Programmbetrieb für etwa 250 teils öffentliche Empfangsstellen in Berlin und Umgebung. Die Massenproduktion von Fernsehempfängern ist ? wohl auch aufgrund des hohen Preises von 2500 mark ? noch nicht angelaufen. Gleichzeitig beginnt die Forschungsanstalt der Deutschen post (RPF) mit Entwicklungsarbeiten für ein Farbfernsehverfahren, die aber später aufgrund des Zweiten Weltkriegs wieder eingestellt werden. 1936 In Deutschland finden Live-Rundfunkübertragungen von den Olympischen Spielen in Berlin statt. Das passende Empfangsgerät dafür ist der ebenfalls 1936 eingeführte batteriebetriebene tragbare Rundfunkempfänger ?Olympiakoffer?. Die erste fahrbare Fernsehkamera (180 Zeilen, vollelektronisch) wird für Fernseh-Live-Übertragungen von den Olympischen Spielen eingesetzt. Von Berliner Fernsehstuben aus können Bildtelefonie-Verbindungen nach Leipzig vermittelt werden, später kommen Verbindungen von Berlin nach Nürnberg und München hinzu. Auch in Großbritannien werden erste regelmäßige Fernsehsendungen ? jetzt nach dem vollelektronischen EMI-System, das das teilmechanische Baird-System bald verdrängt ? ausgestrahlt. Der Franzose Raymond Valtat meldet ein Patent an, welches das Prinzip einer mit Dualzahlen arbeitenden Rechenmaschine beschreibt. Gleichzeitig beginnt in Deutschland Konrad Zuse mit der Entwicklung seiner elektromechanischen dualen Rechenmaschine, die 1937 fertig wird. 1937 Siemens bietet die ersten Saphir-Abtastnadeln für Schallplatten an. Das Zeilensprungverfahren wird im Fernsehen eingeführt, um das Bildflimmern zu reduzieren. Der Sender Witzleben strahlt jetzt Fernsehen nach der neuen Norm mit 441 Zeilen und 25 Bildwechseln, d. h. 50 Halbbildern von je 220 Halbzeilen, aus. Bis ins HDTV-Zeitalter hinein bleibt das Zeilensprung- oder Interlace-Verfahren in Gebrauch. Erste Filmgeber ermöglichen es, das Fernsehprogramm nicht live zu senden, sondern auf Aufzeichnungen zurückzugreifen. 1938 Das verbesserte AEG-Tonbandgerät ?Magnetophon K4? wird erstmals in Rundfunkstudios eingesetzt. Die Bandgeschwindigkeit beträgt 77 cm/s, was bei 1000 m Bandlänge eine Spieldauer von 22 Minuten ergibt. Werner Flechsig erfindet mit der Schattenmaske ein Verfahren zur getrennten Ansteuerung der drei Grundfarben in einer Farbbildröhre. 1939 Auf der ?16. Großen Deutschen Rundfunk- und Fernseh-Rundfunk-Ausstellung Berlin 1939? wird der ?Deutsche Einheits-Fernseh-Empfänger E1? vorgestellt und die Freigabe des kostenlosen privaten Fernsehens angekündigt. Aufgrund der angespannten politischen und wirtschaftlichen Lage am Vorabend des Zweiten Weltkriegs werden aber statt geplanter 10.000 nur etwa 50 Geräte verkauft. In den USA finden erste regelmäßige Fernsehausstrahlungen statt. 1940 Die Weiterentwicklung der Fernsehtechnik zu Kriegszwecken steigert die Auflösung bis hin zu 1029 Zeilen bei 25 Bildern pro Sekunde. Das zivile Fernsehen erreicht erst gegen Ende des Jahrhunderts mit HDTV eine solche Auflösung. Das Problem des Bandrauschens bei Tonbandgeräten wird durch die Erfindung der Hochfrequenz-Vormagnetisierung von Walter Weber und Hans-Joachim von Braunmühl dramatisch reduziert. 1942 Der erste vollelektronische Computer wird von John Vincent Atanasoff fertiggestellt, gerät aber schnell wieder in Vergessenheit. Erst vier Jahre später wird ENIAC fertig ? der Anfang vom Ende der Elektromechanik in Computern und Rechenmaschinen. 1945?1947 Amerikanische Soldaten erbeuten in Deutschland einige Tonbandgeräte. Dies sowie die Nichtigkeit deutscher Patente führt zur Entwicklung erster Tonbandgeräte in den USA. Das erste Heimgerät ?Soundmirror? von der Brush Development Co. kommt dort auf den Markt. 1948 Der amerikanische Physiker und Industrielle Edwin Herbert Land (1909?1991) bringt die erste Sofortbildkamera ?Polaroid-Land-Kamera, Model 95? auf den Markt. Drei amerikanische Ingenieure der Bell Laboratories (John Bardeen, Walter Brattain und William B. Shockley) erfinden den Transistor. Nahezu zeitgleich entwickeln auch Herbert Mataré und Heinrich Welker in Frankreich ihr "Transitron" zur Serienreife[2]. Mit dem Vorteil einer gegenüber Elektronenröhren viel geringeren Baugröße und Leistungsaufnahme ermöglicht der Transistor 1952 (Intermetall) und 1953 (Texas Instruments) die ersten Prototypen von Transistorradios. Danach tritt er seinen allgemeinen Siegeszug in alle Bereiche der Elektronik an. Der ungarisch-amerikanische Physiker Peter Carl Goldmark (1906?1977) erfindet die Vinyl-Schallplatte (erste Veröffentlichung 1952), die viel weniger rauscht als ihre Schellack-Vorgänger. Dank Mikrorille (100 Rillen pro cm) lässt sich damit eine Spieldauer von 23 Minuten pro Seite realisieren. Die Langspielplatte ist geboren. Damit ist man der Einlösung des Anspruchs ?High Fidelity? und dem Ende der Schellack-Ära ein Stück näher. Die Radio Corporation of America (RCA) führt das Single-Format mit 45 min?1 ein, das mit billigen Abspielgeräten den Markt erobern soll. Die erste Veröffentlichung in Deutschland in diesem Format erscheint 1953. Der britische Physiker Dennis Gábor (1900?1979) erfindet die Holographie. Dabei handelt es sich um ein Verfahren der Bildaufzeichnung und -wiedergabe mit kohärentem Licht. Im Unterschied zur konventionellen Fotografie wird damit die Speicherung und Reproduktion von dreidimensionalen Bildern möglich. Erst 1971, als das Verfahren praktische Bedeutung erlangt hat, erhält er dafür den Nobelpreis für Physik. 1949 In Deutschland nehmen die ersten Ultrakurzwellen- (UKW-) Sender den regulären Sendebetrieb auf. Experimentell seit 1943, serienreif seit 1949 gibt es für den professionellen Einsatz Stereo-Tonbandgeräte und die dazu passenden Bänder. Auch portable Geräte für Reporter, anfangs mit Antrieb durch Federwerk, gibt es seit 1949. 1950 In den USA werden die ersten fertig bespielten Tonbänder vermarktet. Ebenfalls in den USA bringt die Firma Zenith den ersten Fernseher mit Kabelfernbedienung zur Kanalumschaltung auf den Markt. 1951 Die CBS (Columbia Broadcasting System) strahlt in New York das erste Farbfernsehprogramm der Welt aus, allerdings nach einer Norm, die an die Auflösung des Schwarzweiß-Fernsehens nicht heranreichte und dazu inkompatibel war. Mit dem ?Magnetophon KL15? der Firma AEG erscheint das erste Heimtonbandgerät auf dem deutschen Markt. RCA Electronic Music stellt den ersten Synthesizer zur Erzeugung künstlicher elektronischer Klänge vor. 1952 Wiedereinführung regelmäßiger Fernsehausstrahlungen in Deutschland nach dem Zweiten Weltkrieg. 20th Century Fox entwickelt mit ?Cinemascope? das erfolgte Breitbild-Verfahren, um mit Breitwand-Kinofilmen besser gegen das Fernsehen konkurrieren zu können. Erst rund 50 Jahre später zieht das Fernsehen mit dem 16:9-Bildformat nach. 1953 Das National Television Systems Committee (Abk.: NTSC) normiert in den USA das nach ihr benannte schwarz-weiß-kompatible NTSC-Farbfernseh-Verfahren. Ein Jahr später wird dieses Verfahren in den USA eingeführt. Das Autoradio-Spitzenmodell ?Mexico? der Firma Becker hat erstmals einen UKW-Bereich (in Mono) und einen automatischen Sendersuchlauf. 1954 RCA entwickelt das erste Gerät zur Aufzeichnung von Videosignalen auf Magnetbändern. Pro Stunde werden etwa 22 km Magnetband gebraucht. Bis 1956 gelingt es der Firma Ampex, durch die Verwendung von mehreren Spuren die Bandgeschwindigkeit auf praktikablere 38,1 cm/s zu senken. Die Europäische Rundfunk-Union gründet ?Eurovision?. Erste regelmäßige Fernsehausstrahlungen in Japan. 1955 Der erste Elektronenrechner der zweiten Generation ?TRADIC? (Transistorized Digital Computer) arbeitet mit Transistoren und ist dadurch viel kleiner und leistungsfähiger als sein röhrenbestückten Vorgänger der ersten Generation. Der Brite Narinder S. Kapany untersucht die Ausbreitung von Licht in feinen Glasfasern (Lichtleitern). Später wird das zur Grundlage leistungsfähiger Telekommunikationsnetze und schneller Internet-Verbindungen. Die erste drahtlose Fernbedienung für einen Fernseher der US-Firma Zenith besteht aus einer besseren Taschenlampe, mit der man in eine der vier Geräteecken leuchtet, um das Gerät ein- oder auszuschalten, den Kanal zu wechseln oder den Ton stummzuschalten. 1956 Die Firma Metz setzt in ihrem Radiogerät Typ 409/3D erstmals in der Serienfertigung eine Leiterplatte ein. Vorausgegangen sind seit den 1930er Jahren zahlreiche Detailverbesserungen in der Fertigungstechnik. Die Firma Braun, schon vorher durch Radiogeräte in modernem Design aufgefallen, bringt die "Phono-Radio Combination SK 4" -- im Volksmund bald auch "Schneewittchensarg" genannt -- auf den Markt. Obwohl noch in Mono, begründet dieses Design die neue Gerätegattung der Kompakt-Stereoanlage, die 15 Jahre später die voluminösen Musiktruhen vollständig verdrängt haben wird. Die Firma Ampex stellt mit dem ?VR 1000? den ersten Videorecorder vor. Noch im gleichen Jahr strahlt die CBS mit einem solchen Gerät erstmals eine Magnetaufzeichnung (MAZ) aus. Obwohl andere Sendungen schon seit 1954 in Farbe produziert werden, muss diese Sendung mit schwarz-weiß auskommen: Der Videorecorder kann noch keine Farbe aufzeichnen. 1957 Der Franzose Henri de France (1911?1986) entwickelt die erste Generation des Farbfernsehsystems SECAM (Système électronique couleur avec mémoire), das einige Probleme des NTSC-Verfahrens vermeidet. Die Schwächen des SECAM-Systems werden in späteren Modifikationen des Standards größtenteils behoben. 1958 Durch die Zusammenlegung der Patente Edisons und Berliners wird das Blumlein-Aufzeichnungsverfahren für Stereo-Schallplatten kommerziell verwertbar. Die Firma Mercury Records bringt die erste Stereo-Schallplatte auf den Markt. Die Firma Ampex erweitert den Videorecorder mit dem Modell ?VR 1000 B? um die Farbfähigkeit. 1960?2001: Von Fernsehen und HiFi zu Multimedia 1960 Sony stellt den ersten "volltransistorisierten" Fernsehempfänger vor, bei dem alle Elektronenröhren außer der Bildröhre durch Halbleiter (Transistoren und Dioden) ersetzt sind. Mit der Kuba-Fernseh-Stereo-Konzerttruhe "Komet Super-Luxus-Automatic 1223SL"[3] kommt zum Preis von 2748 DM eine Fernseh- und Musiktruhe im extravaganten 60er-Jahre-Design auf den Markt. Nur Plattenspieler und Verstärker sind Stereo, Radio- und Fernsehempfänger noch Mono. Ein Tonbandgerät kann in einem separaten Fach untergebracht werden. 1961 Der amerikanische Physiker Theodore Harold Maiman (1927?2007) entwickelt die erste experimentelle Laser-Lichtquelle (Rubin-Laser), die einzelne Lichtblitze abgibt. Kurz darauf nehmen die Physiker Ali Javan (1926?2016), William R. Bennett (1930?2008) und Donald R. Herriott den ersten Gaslaser mit kontinuierlicher Lichtabgabe in Betrieb. Die Tür zu neuen Anwendungen von der Holographie (1962) über die Datenübertragung mit Lichtleitern (1976) und zu optischen Datenträgern (CD, 1979) ist aufgestoßen. Die amerikanischen Firmen Texas Instruments und Fairchild stellen erstmals integrierte Schaltkreise industriell her. Mehrere Transistoren, Dioden und Widerstände werden bei dieser Technik auf demselben Siliziumkristall zusammengefasst. Die erste Stereo-Rundfunksendung wird in den USA ausgestrahlt. (Ab 1963 wird dasselbe zu Monogeräten kompatible Verfahren in Deutschland übernommen.) 1962 Zum ersten Mal wird eine Fernsehsendung über einen Nachrichtensatelliten ("Telstar I") übertragen. Drei Jahre später stellt "Early Bird" (später umbenannt in "INTELSAT I") als erster kommerzieller geostationärer Nachrichtensatellit die erste kabellose ständige Verbindung zwischen Europa und den USA her. In den Folgejahren werden von Jahr zu Jahr mehr kommerzielle Satelliten in geostationäre Umlaufbahnen gebracht. 1963 Die Firma Philips bringt mit dem Cassetten-Recorder "EI 3300" das Compact-Audio-Cassetten-System (Kompaktkassette) auf den Markt. Das System kann mit Tonbandgeräten qualitativ nicht mithalten. Es setzt sich aber in den folgenden Jahrzehnten dank Qualitätsverbesserungen, einfacher Handhabung, kompakten Geräten und der kostenlosen Lizenzierung weltweit durch. Erste vorbespielte Musikkassetten erscheinen 1965. Die Firma Ampex bringt den ersten volltransistorisierten Videorekorder "VR 110" für professionelle Anwendung auf den Markt. In Mainz nimmt das Zweite Deutsche Fernsehen (ZDF) seinen Sendebetrieb auf, nachdem es in Deutschland vorher nur einen einzigen Fernsehkanal gegeben hat. Zum Empfang wird ein UHF-Konverter benötigt, den man auch als die erste Set-Top-Box bezeichnen könnte. Der deutsche Elektroingenieur Prof. Dr. Walter Bruch (1908?1990) stellt sein Farbfernsehsystem PAL (Phase Alternation Line ? Phasenänderung pro Zeile) vor. Es baut auf Erfahrungen mit den Vorgängern NTSC (USA, 1953) und SECAM (Frankreich, 1957) auf. In der Farbtreue bei schwierigen Empfangsbedingungen ist es vor allem NTSC deutlich überlegen, aber zu beiden inkompatibel. Das Polaroid-Verfahren, seit 1947 auf dem Markt, wird in einer Version für Farbbilder eingeführt. 1965 Die Digital Equipment Corporation (DEC, Maynard, USA), bringt mit ihrem "Programmed Data Processor 8 (PDP-8)" den ersten massenproduzierten Kleincomputer auf den Markt. 1966 Erst in einer späten Phase des deutschen PAL-Farbfernseh-Versuchsbetriebs werden von der amerikanischen Firma RCA die ersten PAL-farbfähigen Videorekorder für professionelle Anwendung ("MAZ-Anlagen") geliefert. In der Norm DIN 45500 werden Messverfahren und Mindeststandards für den Begriff "High Fidelity" (Abk. HiFi) festgelegt. In der Folge schmücken sich vor allem Mittelklasse-Anlagen mit dem entsprechenden Logo, um sich von billigeren Anlagen zu differenzieren. Die besten Geräte -- um diese Zeit wird auch der Begriff "High End" geprägt -- sind schon damals weit besser. 1967 Die Kompaktkassette wird endgültig zur Wendekassette mit vier Spuren (2 × Stereo) genormt und beginnt, den Tonbandgeräten ernsthaft Konkurrenz zu machen, wenn auch zunächst nur in Bereichen, in denen die Tonqualität nicht so wichtig ist. In Deutschland wird nach längerem Probebetrieb das Farbfernsehen nach dem PAL-System (1963) offiziell eingeführt. Andere westeuropäische Länder mit Ausnahme Frank (SECAM, 1957) übernehmen das System später. 1968 Die Technik integrierter Schaltkreise hält Einzug in die vierte Computergeneration, nachdem die dritte Generation (seit 1962) miniaturisierte Transistoren und Hybridschaltkreise enthalten hatte. 1969 Dem Amerikaner Marcian Edward Hoff (* 1937) gelingt bei der Firma Intel erstmals die Integration aller Komponenten einer Computer-Zentraleinheit (CPU) auf einem Chip. Er schuf damit den ersten sogenannten Mikroprozessor. Zwei Jahre später vermarktet Intel erstmals einen 4-Bit-Mikroprozessor, den Intel 4004. Der holländische Physiker Klaas Compaan experimentiert mit Glas-Bildplatten, die zunächst ganze Bilder, dann ein serialisiertes Videosignal enthalten. Sony führt den ersten Videorekorder ein, bei dem das Magnetband nicht mehr "lose" auf einer Spule, sondern in einer Kassette untergebracht ist. 1970 Ein britisch-deutsches Firmenkonsortium (AEG-Telefunken/Teldec/Decca) führt den ersten Bildplattenspieler nach dem "TED"-System ein. Die Schwarzweißgeräte tasteten eine dünne auf einem Luftkissen schwebende Kunststofffolie mechanisch ab. Die Folie hatte 12-mal so viele Rillen und rotierte 45-mal so schnell wie eine Langspielplatte. Mangelnde Spieldauer und Praktikabilität sowie die fehlende Möglichkeit zum Aufnehmen bescherten dem System eine nur kurze Lebensdauer. Sony verbessert das Kontrastverhältnis von Farbbildröhren beträchtlich durch die Einführung der "Trinitron"-Technik. Statt einer Lochmaske haben diese Röhren eine Maske aus vielen hauchdünnen Stahldrähten. Die Elektronenkanonen sind nicht mehr im Dreieck, sondern in einer Reihe angeordnet. Durch die neue Geometrie trifft ein größerer Teil der von ihnen ausgesendeten Elektronen auf Leuchtphosphor, womit die Bildhelligkeit steigt und ein dunkler getöntes Bildröhrenglas möglich wird. 1971 Philips und Grundig stellen auf der Funkausstellung in Berlin die ersten Videokassettenrekorder nach dem "VCR-System" vor. Obwohl für den Heimgebrauch noch zu kostspielig, legt das System den technischen Grundstein für spätere Heimvideorekorder: Schrägspuraufzeichnung des Bildsignals und Längsspuraufzeichnung für das Tonsignal auf einem Halbzollband. Lediglich die Details und das Kassettenformat ändern sich. VCR setzt eine Kassette mit übereinanderliegenden Bandspulen ein, was eine schräge Bandführung durch das Gerät ergibt. Die Kopftrommel, welche die Video-Schrägspuren liest und schreibt, kann daher gerade im Gerät angeordnet sein, was eine mechanisch einfache Konstruktion ergibt. Die ersten Fernsehgeräte mit drahtlosen Ultraschall-Fernbedienungen werden angeboten, sind aber aufgrund des Funktionsprinzips für Hundebesitzer weniger geeignet. Philips verbessert den Rauschabstand von Audio-Aufnahmen auf Kompaktkassetten durch den "Dynamic Noise Limiter (DNL)". Zu existierenden Aufnahmen ist das System kompatibel, da es nur auf der Wiedergabeseite eingreift. Der amerikanische Ingenieur Nolan Bushnell aus Kalifornien baut das weltweit erste kommerzielle Videospiel. Ab 1976 liefert die von ihm gegründete Firma Atari auch an Fernseher anschließbare Videospiele für zuhause, ab den 80er Jahren auch Heimcomputer. In der Schweiz wird von den Firmen Hoffmann-La Roche und BBC die erste Flüssigkristallanzeige (LCD) hergestellt. Der Vorteil gegenüber den üblichen Nixie-Röhren- oder LED-Anzeigen ist der viel geringere Stromverbrauch. 1972 Die Olympischen Spiele in München werden erstmals live und in Farbe in die ganze Welt übertragen, nachdem 1968 die Olympiade in Mexiko nur in die USA in Farbe übertragen worden ist. Grundig führt Deutschlands erste volltransistorisierte Farbfernseher ein. Die Deutsche Bundespost beginnt mit dem Bau von Kabel-Versuchsnetzen für Abschattungsgebiete in Hamburg und Nürnberg. IBM stellt in den USA die erste Computer-Festplatte vor. 2 Megabytes fasst das 14-Zoll-Monstrum. 1973 Die Dolby Laboratories (USA) führen ihr erstes serienreifes Produkt zur Rauschminderung ein: Dolby B. Es muss auf der Aufnahme- und Wiedergabeseite eingesetzt werden und macht die Kompaktkassette erstmals HiFi-tauglich. In den Folgejahren etablieren sich bei Stereoanlagen sowohl Kassettendecks als auch Stereo-Kompaktanlagen, die außer dem Kassettenlaufwerk auch einen Plattenspieler, Radioempfänger und Verstärker enthalten. 1975 Sony führt den ersten Videokassettenrekorder für den Heimgebrauch ein. Der Standard nennt sich Betamax. Im Gegensatz zu VCR (1971) liegen die Bandwickel jetzt nebeneinander in der Kassette. Das Band wird gerade durchs Gerät geführt, und die Kopftrommel ist schräg angeordnet. Der japanische Fernsehsender NHK stellt erstmals hochauflösendes Fernsehen (High Definition TV, HDTV) vor. Das Bildformat ist nicht mehr 4:3, sondern erstmals 16:9. Es werden 1125 Zeilen bei 60 Hertz Halbbildfrequenz wiedergegeben. Das Signal wird zunächst allerdings ? wie bei den ersten Gehversuchen des Fernsehens in den 20er Jahren ? kabelgebunden übertragen. Das österreichische Unternehmen Ruwido präsentiert die weltweit erste Infrarot-Fernbedienung. In den Folgejahren hält die Infrarot-Technik bei immer mehr Fernseher-Fernbedienungen Einzug, später ersetzt sie auch die Kabelfernbedienungen bei Videorecordern und Stereoanlagen. 1976 Die Bell Laboratories demonstrieren erstmals ein praxistaugliches Glasfaserkabel. Ein Jahr später wird die erste öffentliche Glasfaser-Telefonleitung in Betrieb genommen. Ein Werbefilm für den Queen-Song "Bohemian Rhapsody" wird gedreht und gilt als das erste Musikvideo. In der Folge werden Musikvideos zum festen Bestandteil der Rock- und Popmusikszene. 1977 JVC (Victor Company of Japan Ltd.) tritt mit seinem VHS (Video Home System) in Konkurrenz zu Betamax. VHS unterscheidet sich nur in Details und im Cassettenformat von Betamax (1975). Erst im Lauf der nächsten 10 Jahre wird endgültig klar, dass VHS das erfolgte analoge Video-System am Markt ist. Das kalifornische Startup Apple Computer vermarktet seinen ersten Mikrocomputer "Apple II". Im Jahr darauf folgt Commodore mit seinem "Personal Electronic Transactor (PET 2001)". 1978 Telefunken bringt mit HighCom ein verbessertes, aber zu Dolby B inkompatibles Verfahren zur Rauschunterdrückung bei Kassettendecks auf den Markt. Breit durchsetzen kann sich das System wegen Telefunkens restriktiver Lizenzierungspolitik nicht. Stattdessen verbreitet sich -- das etwa gleichzeitig von den Dolby Laboratories eingeführte Dolby C rasch, weil die damit ausgerüsteten Geräte weiterhin Dolby-B-kompatibel bleiben. Sony führt mit "U-Matic" das erste Videokassettensystem für semiprofessionelle Anwendung ein. Das System wird später qualitativ weiterentwickelt zu "U-Matic HighBand". 1979 Sony bringt den ersten ultrakompakten tragbaren und batteriebetriebenen Kassettenspieler unter der Bezeichnung "Walkman" auf den Markt. Philips stellt die digitale Compact Disc (CD) als Tonträger der Zukunft vor. 1980 Basierend auf einem in den 70er Jahren vorwiegend in Großbritannien entwickelten Verfahren wird in Deutschland Videotext eingeführt. Grundig und Philips führen das System Video 2000 ein. Obwohl technisch den Systemen Beta (1975) und VHS (1977) überlegen, kommt dieses System zu spät und mit einer zu restriktiven Lizenzierungspolitik. Es verschwindet schon bald wieder vom Markt; portable Varianten werden nie angeboten. Sony präsentiert den ersten Prototyp eines Video-Camcorders. Zwei Jahre später legt Sony zusammen mit Hitachi, JVC, Matsushita und Philips den 8-mm-Video-Standard für Camcorder fest. Hitachi präsentiert die weltweit erste Kamera ohne Aufnahmeröhre. Stattdessen wird ein CCD-Sensor, also ein Halbleiter-Bildsensor, eingesetzt. Die Deutsche Bundesbahn beginnt mit der Einführung von Münzfernsprechern in den Zügen. Mit dem Sinclair ZX81 kommt der erste Heimcomputer für weniger als 500 DM auf den Markt. Als Bildschirm wird ? wie in den ersten 10 Jahren des Home-Computings allgemein üblich ? ein Fernseher vorausgesetzt. Die ersten "tragbaren", aber nicht vom Stromnetz unabhängigen Computer haben das Format eines großen Aktenkoffers. 1981 Im Zweiten Deutschen Fernsehen (ZDF) wird der Stereoton eingeführt. Das erste Programm zieht wenig später nach. Wahlweise können die beiden Tonkanäle auch für zweisprachige Mono-Sendungen ? z. B. ausländische Spielfilme ? genutzt werden. Commodore führt zusätzlich zur seit 1978 existierenden Produktlinie professioneller Computer den "Volkscomputer" VC20 ein. Im Gegensatz zum Sinclair ZX81 bringt der VC20 farbige Bilder auf den Fernseher. Ein Jahr später folgt der deutlich leistungsfähigere, aber auch teurere C64 mit damals für einen Homecomputer sensationellen 64 KB Arbeitsspeicher. Beide basieren auf 8-Bit-Prozessoren der 65xx-Reihe. 1982 Am Fraunhofer-Institut beginnt die Entwicklung eines Verfahrens zur verlustbehafteten Datenkompression von digitalen Tonaufzeichnungen, das ab Mitte der 90er Jahre unter der Bezeichnung mp3 (genauer: MPEG-2 Layer 3 Audio) breit Anwendung findet. 1983 Die CD kommt auf den europäischen Markt. Die gesamte Unterhaltungselektronik-Industrie steht hinter dem neuen Standard, so dass er sich trotz hoher Preise zügig durchsetzt. Käufer schätzen die CD wegen ihrer gegenüber der Vinylplatte überlegenen Tonqualität und einfacheren Handhabung. Obwohl das 8-mm-Video-Format schon definiert ist, benutzt Sony's erster Serien-Camcorder "Betamovie" das Beta-Vollformat. Fast gleichzeitig führt JVC den ersten VHS-C-Camcorder ein, der auf der zu VHS kompatiblen VHS-Compact-Cassette basiert und damit eine kleinere Bauform bei reduzierter Aufnahme- und Spielzeit erlaubt. 1984 IBM führt den IBM PC ein und prägt damit den Begriff "Personal Computer". Anders als sonst bei IBM üblich stecken in dem Gerät keine eigenen Schlüsseltechnologien, sondern der Prozessor Intel 8086 und das Betriebssystem MS-DOS von Microsoft. Beides können auch andere Hersteller kaufen, daher erscheinen schon bald die ersten "IBM-kompatiblen" PCs. IBM wird in der Folge fast aus dem Markt gedrängt und kann sich längerfristig nur bei hochwertigen Laptops behaupten. Apple führt kurz nach dem IBM PC den "Macintosh 128k" ein, den ersten "Personal Computer" mit grafischer Benutzeroberfläche. Im Gegensatz zum IBM-PC basiert dieses Gerät auf dem Prozessor Motorola 68000 und einem Apple-eigenen Betriebssystem. Anders als Microsoft verkauft Apple sein Betriebssystem nur zusammen mit den eigenen, relativ teuren Computern. Deshalb bleibt der Marktanteil gegenüber den "kompatiblen" PCs zunächst klein. 1985 Sony führt den ersten portable CD-Payer "Discman" und den ersten Camcorder mit dem neuen Cassettenformat Video-8 ein. Die digitale Speicherung großer Datenmengen macht die CD auch für Computeranwender interessant. Philips und Sony tragen dem mit der Einführung der CD-ROM Rechnung. Im Lauf der Zeit kommen weitere Formate wie CD-I und CD-V hinzu, die aber nicht dieselbe Bedeutung erlangen. In Ludwigshafen beginnt die Erprobung des Breitband-Kabelnetzes für die Verteilung von Rundfunk- und Fernsehprogrammen. Die Société Européenne des Satellites (SES S.A.) wird mit dem Ziel gegründet, einen Kommunikationssatelliten mit dem Namen ASTRA für den Fernseh-Direktempfang mit kleinen Parabolantennen zu kommerzialisieren. Mit den konkurrierenden Modellen Atari ST und Commodore Amiga halten grafisch Benutzeroberflächen und leistungsfähige 16-Bit-Prozessoren (Motorola 68000) Einzug in den Bereich der gehobenen Heimcomputer. Der Atari ST kann wahlweise an einen Fernseher oder an einen kleinen und preiswerten, aber dennoch flimmerfreien 70-Hz-Schwarzweiß-Monitor angeschlossen werden. 1986 In Europa wird ein eigener, zum japanischen Standard (1975) nicht kompatibler HDTV-Standard mit digitaler Tonübertragung und analoger Bildübertragung (Bildformat 16:9, 1250 Zeilen, Bildfrequenz 50 Hz) entwickelt. Als Zwischenschritt soll der Standard D2-MAC die Bildqualität mit den althergebrachten 625 Zeilen deutlich verbessern und das Seitenverhältnis auf 16:9 bringen. Fast ein Jahrzehnt lang dümpeln diese Pläne vor sich hin, bevor sie angesichts der technischen Möglichkeit eines volldigitalen Fernsehens Mitte der 90er Jahre wieder in der Versenkung verschwinden, ohne je Marktreife erlangt zu haben. 1987 Ein neuer Standard für die digitale Tonaufzeichnung auf Magnetband-Cassetten kommt auf den Markt: "DAT (Digital Audio Tape)". Aus der Videotechnik wird die Schrägspuraufzeichnung übernommen, die es erlaubt, ein digitalisiertes Audiosignal ohne Kompression aufzuzeichnen. Der Standard kann sich aber aufgrund hoher Gerätepreise nicht breit gegen die etablierte Compactcassette durchsetzen. Erfolg hat das System zeitweise als Datenspeicher in der Computertechnik ("Digital Data Storage", "DDS") mit großen und preiswerten Speicherkapazitäten von zunächst 1,3 GB (DDS1), in späteren Versionen bis über 36 GB (DDS5). JVC führt als rückwärtskompatible Verbesserung des VHS-Systems S-VHS ein. Sony zieht mit ED-Beta (Extended Definition Beta) nach, kann damit aber den niedrigen (und sinkenden) Marktanteil des Beta-Systems nicht mehr merklich erhöhen. Erstmals können Videoamateure ihre Videos nachbearbeiten (was zumindest einmaliges Kopieren notwendig macht), ohne dass die Bildqualität zu sehr leidet. 1988 Das Hi8-System bringt den Video-8-Standard qualitativ auf das Niveau von S-VHS-C. Erstmals werden LCD-Farbvideomonitore gezeigt, wenn auch in kleinen Formaten. 1989 Nachdem seit 1982 Prototypen von digitalen Radioempfängern gezeigt worden waren, wird auf der Funkausstellung in Berlin der digitale Hörfunk über Satellit ("DSR") offiziell gestartet. Es wird nach gut 10 Jahren mit nur mäßigem Erfolg wieder eingestellt, u. a. weil es nicht für mobilen Empfang, z. B. im fahrenden Auto, brauchbar ist. Seit Mitte der 80er Jahre wird parallel an alternativen Standards für den digitalen Radioempfang gearbeitet, so z. B. an Digital Audio Broadcast (DAB), die dieses Problem lösen sollen. Der erste ASTRA-Fernsehsatellit für Direktempfang geht in Betrieb. Durch das vorherige Scheitern von TV-Sat1 gelingt der Markteinstieg schnell; die zunächst 16 analogen Fernsehkanäle sind schon bald zu wenig und werden durch weitere Satelliten auf gleicher Orbitposition erweitert. Sony produziert den ersten Mini-Camcorder "CCD-TR55E" mit CCD-Bildsensor und hochintegrierter Signalverarbeitung. 1990 Die ersten Fernsehgeräte mit 100-Hz-Technik gegen Bildflimmern kommen in den Handel. Die Bildqualität leidet bei schnellen horizontalen Bewegungen unter massiven Kamm-Artefakten, die in den Folgejahren durch immer bessere Deinterlacing-Filter reduziert werden. Sharp stellt den ersten LCD-Großbildprojektor für Fernsehbilder vor. Canon macht den Camcorder mit dem "EX-1" auch für den semiprofessionellen Bereich salonfähig. (Bisher kamen dort Schulterkameras mit separatem Recorder zum Einsatz.) Das Gerät kann mit verschiedenen Wechselobjektiven ausgestattet werden. Apple Computer bringt mit QuickTime die erste Multimedia-Architektur auf seine Macintosh-Computer. Noch sind die Videos klein und ruckelig, doch verbessert sich das in den nächsten Jahren durch Weiterentwicklungen der Hard- und Software stetig. 1991 Braun steigt mit der "Last Edition" seiner Atelier-Serie aus dem HiFi-Geschäft aus. Nachdem die Marke Wega schon Anfang der 80er Jahre eingestellt worden ist, endet damit eine ganze Ära progressiven Designs in der Elektro- und Elektronikbranche. 1992 Sony führt die Mini-Disc als wiederbespielbaren digitalen Tonträger ein. Das verwendete ATRAC-Kompressionsverfahren ist technisch mit MP3 verwandt, jedoch im Gegensatz dazu nicht frei verfügbar. Im gleichen Jahr und in Konkurrenz zur Mini-Disc führt Philips die ebenfalls wiederbespielbare "Digital Compact Cassette (DCC)" ein. Die DCC-Geräte können auch Analogkassetten abspielen, allerdings nicht auf ihnen aufnehmen. Ebenso wie beim Konkurrenten DAT bleibt eine breite Marktdurchdringung dieser beiden neuen Systeme aus. Auf der Photokina in Köln stellen Philips und Sony die Foto-CD vor. Konventionell aufgenommene Fotos können statt in Form von Negativen auf Foto-CD geliefert werden. Sie lassen sich dann per CD-I- oder Foto-CD-Player auf den Fernsehschirm bringen oder mit CD-ROM-Laufwerk in Computer übertragen und dort weiterverarbeiten. Batmans Rückkehr ist der erste Kinofilm mit Digital-Mehrkanalton nach dem Dolby-Digital-Verfahren. 1993 Mit "Jurassic Park" hält die Computertechnik furiosen Einzug in die Filmproduktion. In der Folge lassen sich computererzeugte Szenen von Realszenen immer weniger unterscheiden. Die "Fast Video Machine" ? eine Steckkarte und Software für kompatible PCs ? bringt die Nachbearbeitung von Videoaufnahmen auf dem Computer erstmals in eine für Semiprofis und ambitionierte Amateure erschwingliche Preisregion. Sharp bringt mit der "ViewCam" einen Camcorder auf den Markt, der keinen Sucher mehr hat, dafür aber einen LCD-Monitor. Da sich dieser bei heller Umgebung kaum benutzen lässt, folgen von anderen Herstellern bald die ersten Hybridmodelle mit Sucher und Monitor. Das ShowView-System wird eingeführt und vereinfacht die Programmierung von Videorekordern für Timeraufnahmen. Während für professionelle Farb-Videoaufnahmen schon lange mit drei Aufnahmeröhren oder CCDs als getrennten Bildaufnehmern für die drei Grundfarben gearbeitet wird, bringt Sony erstmals einen 3-Chip-Camcorder für den semiprofessionellen Bereich und für gehobene Amateuransprüche auf den Markt. Der erste Prototyp eines Plasma-Flachbildschirms wird von Sony gezeigt. Das System tritt in Konkurrenz zu LCD-Bildschirmen und ist zeitweise bei großen Bildformaten auch erfolgreicher. 1994 Der Fernseh- und Videoton erschließt mit dem Dolby-ProLogic-Verfahren, das in Kinos schon länger eingesetzt wird, die räumliche Dimension. Die digitalen Fernsehstandards DVB-S (für Satellitenfernsehen) und DVB-C (für Kabelfernsehen) -- zunächst in Standardauflösung, mit späteren Erweiterungen auch in HD -- werden ratifiziert. In den USA wird ein erster Smartphone-Vorläufer -- der von BellSouth und IBM entwickelte ?Personal Communicator? Simon -- verkauft. 1995 Sony bringt mit dem DV-System (Digital Video System) volldigitales Video in semiprofessioneller Qualität. Der Digitalcamcorder "VX-1000" setzt das System erstmals ein. Ein Jahr später folgt mit dem "DHR-1000" der erste stationäre Videorecorder. Danach werden die Camcorder durch die Einführung des kompatiblen Mini-DV-Cassettenformates kleiner und auch immer preiswerter. Immer schnellere Computer und Festplatten ermöglichen in den Folgejahren auch die digitale -- und damit verlustfreie -- Video-Nachbearbeitung -- im semiprofessionellen und ambitionierten Amateurbereich. In Deutschland beginnt der regelmäßige Sendebetrieb nach dem PAL-Plus-Verfahren, das mit existierenden PAL-Empfängern kompatibel bleibt, jedoch ein Bildformat von 16:9 ermöglicht. 1996 Die Europäische Norm EN 61305 legt Verfahren zur Messung und Angabe der Leistungskennwerte von HiFi-Anlagen fest. Anders als die technisch überholte DIN 45500 enthält sie keine Mindestanforderungen mehr. Der Pay-TV-Veranstalter DF1 (Digitales Fernsehen 1) verbreitet das erste digitale Fernsehprogramm in Deutschland. Der passende Receiver ist die d-Box, die anfangs nur zur Miete, später auch zum Kauf angeboten wird. Mit der Digital Versatile Disc (DVD) erscheint ein System, das die Vorteile der CD in den Videobereich bringen soll. Auch zahlreiche andere Anwendungen sind mit der Datenkapazität von 4,7 GB denkbar, daher die Bezeichnung "versatile", vielseitig. Digitaler 5.1-Mehrkanalton ist Teil des Standards. Der erste Dolby-Digital-Receiver Kenwood KR-V990D ermöglicht dessen Wiedergabe auch zuhause. Während Notebook-Computer schon länger LCD-Bildschirme einsetzen, kommt der erste selbständige Computer-Flachbildschirm nach dem LCD-Prinzip in den Handel. Noch lassen sich so allerdings nur verhältnismäßig kleine Bildgrößen realisieren. Mit dem Nokia 9000 Communicator kommt das erste Smartphone auf den Markt. In den folgenden 10 Jahren bleiben Smartphones teures "Spielzeug" von Managern (z. B. als Terminplaner) und Technik-Freaks (z. B. als GPS-Navigationsgeräte). Zur Unterhaltungselektronik zählen sie damit (noch) nicht. Oft haben sie Eingabestifte, eine winzige Tastatur und Symbian oder Windows Mobile als Betriebssystem. 1997 Die erste digitale HDTV-Übertragung in Europa folgt ein Jahr nach der digitalen HDTV-Weltpremiere in den USA. Die hohe Bandbreite, die für die Übertragung notwendig ist, und die Inkompatibilität zu existierenden Fernsehgeräten lässt jedoch an eine schnelle Einführung nicht denken. Der digitale Fernsehstandard DVB-T (für erdgebundene Fernsehausstrahlungen zunächst in Standardauflösung, mit späteren Erweiterungen auch in HD) wird ratifiziert. Zur IFA startet das DVB-T-Projekt Berlin/Brandenburg. Ein Jahr später, zur CeBIT Home in Hannover, verbreitet DVB-T in Norddeutschland fünf Fernseh- und vier Hörfunkprogramme. 1998 Philips zeigt den ersten Flachfernseher. Erstmals bekommt die Bildröhre, letzter Vertreter der Gattung Elektronenröhre, ernsthafte Konkurrenz, die am Ende zu ihrem Aussterben führen wird. Die digitale Videokompression nach dem MPEG-1-Standard erlaubt nicht nur die Speicherung von Video auf CD-ROMs (Video CD, VCD), sondern ermöglicht zusammen mit Fortschritten in der Kapazität von Computer-Festplatten jetzt auch den ersten MPEG1-Camcorder. Für Camcorder setzt sich das Format nicht durch. Digital-Fotokameras nutzen das Format in der Folgezeit aber für die Aufnahme kurzer Videoclips in begrenzter Qualität auf Speicherkarten. Die ersten tragbaren MP3-Player kommen auf den Markt, setzen sich aber aufgrund hoher Preise, geringer Speicherkapazitäten und ungewohnter Handhabung (die einen Computer erfordert) noch nicht breit durch. 1999 Sony zeigt mit Digital-8 ein zur digitalen Speicherung weiterentwickeltes Video-8-System. Obwohl das System technisch dem DV-System aus gleichem Hause unterlegen ist, sichert es sich durch günstigere Preise und die Abspielkompatibilität mit alten Video-8-Kassetten erhebliche Marktanteile. Erste digitale Fernsehprogramme werden gemäß dem Standard DVB-S von den Satelliten der ASTRA-Familie ausgestrahlt. Receiver dafür kosten knapp 1000 DM, werden aber in den Folgejahren immer preiswerter. Der erste DSL-Anschluss für Privatkunden wird gelegt. Das Internet und Multimedia beginnen, zusammenzuwachsen. Etwa 10 Jahre bevor das Internet für die Unterhaltungselektronik große Bedeutung erlangt, wird klar, dass es in Zukunft nicht nur die Interaktion zwischen Menschen und Datenbank-Servern umfassen wird, sondern auch direkte Interaktionen zwischen Maschinen. Der Begriff "Internet of Things" wird geprägt. 2001 Digitale Sat-Receiver mit integriertem Festplatten-Videorecorder erscheinen auf dem Markt. Als Vorteil gegenüber den etablierten Videorecordern mit Cassetten bieten sie echtes zeitversetztes Fernsehen: Die Aufnahme kann schon angesehen werden, während der Rest der Sendung noch aufzeichnet. Zum Archivieren eignen sich die Geräte wegen zu geringer Festplattenkapazität noch nicht. Erstmals werden mehr CD-R-Rohlinge als fertig bespielte CDs verkauft. Der PC ist ? dank Computerspielen, MP3 und Digitalvideo ? Teil der Unterhaltungselektronik geworden. Digitale Audioaufnahmen sowohl auf einmalig bespielbaren (CD-R) wie auch auf wiederbespielbaren (CD-RW) Datenträgern finden fast nur auf PCs statt, weil Audio-CD-Rekorder teuer sind, spezielle teure Rohlinge brauchen und viele CDs gar nicht digital kopieren wollen. Die MP3-CD wird zum Quasistandard und speichert bis zu 10-mal so viel Musik bei geringfügig reduzierter Qualität. Sie lässt sich nur auf dem Computer erstellen, dann aber in vielen DVD-Playern und sogar Autoradios abspielen. Mit dem Apple iPod kommt ein MP3-Player auf den Markt, der zunächst die anspruchsvolle Mac-Computer-Kundschaft mit einfacherer Handhabung als bei etablierten Modellen versorgen soll. Das Gesamtsystem aus Online-Musikvertrieb, Computersoftware und Abspielgerät wird bald auch für die verbreitetere Microsoft-Windows-Plattform angeboten und macht die folgenden Generationen von iPods zur meistverkauften MP3-Player-Familie. Am 1.11. beginnt in Berlin/Potsdam die Umstellung vom analogen auf das digitale Antennenfernsehen nach dem DVB-T-Standard. Ähnlich wie in den Frühzeiten des ZDF (1963) müssen sich die Zuschauer ein Zusatzgerät, die Set-Top-Box, anschaffen. Im Gegenzug empfangen sie nun mehr Programme, und das in besserer Ton- und Bildqualität. Seit 2002: Mit HD ins vernetzte Zeitalter 2002 Als HD-fähiger Nachfolger der DVD wird die BluRay-Disc standardisiert. Mit der Standardisierung von DOCSIS 2.0 werden die Betreiber von Breitband-Kabelnetzen in die Lage versetzt, bidirektionale Datendienste (Internet und VOIP-Telefonie) über ihre Netze einem breiten Kundenkreis anzubieten. Die Folgestandards erlauben immer höhere Datenraten. 2003 Der 4.8. markiert den Anfang vom Ende des analogen Fernsehzeitalters: In Berlin/Potsdam wird die terrestrische Verbreitung von analogen Fernsehprogrammen komplett eingestellt. Bis Ende 2009 werden in Deutschland nach und nach alle analogen Fernsehsender auf DVB-T (später DVB-T2 in HD) umgestellt. Das Kompressionsverfahren H.264 wird normiert. Damit ist die Grundlage für die breite Einführung von HDTV ohne zusätzlichen Bandbreitenbedarf geschaffen. 2004 DAB-Empfänger für das neue Digitalradio kommen in größerer Zahl auf den Markt. Aufgrund hoher Gerätepreise, unvollständiger Gebietsabdeckung und nur geringen Vorteilen gegenüber dem etablierten UKW-Rundfunk bleiben Absatz und Marktanteil in der Anfangszeit gering. Das DV-Videoformat wird durch MPEG2-Kompression zum hochauflösenden HDV. JVC, Sony, Canon und Sharp bringen entsprechende Camcorder zunächst für semiprofessionelle Anwender, später auch für ambitionierte Amateure auf den Markt. 2005 Die HD-Ready-Zertifizierung soll die bis dahin herrschende Unsicherheit beseitigen, welche digitalen Zuspielgeräte mit welchen (Flachbild)-Fernsehern funktionieren. Dafür wird das 16:9-Format festgelegt sowie Mindeststandards u. a. für Bildauflösung, Skalierung, und Anschluss digitaler Zuspieler (samt Kopierschutz) festgelegt. Da Full-HD-Fernseher auch in den folgenden Jahren noch sehr teuer sind, markieren HD-Ready-Geräte den Einstieg in das kommende digitale HD-Fernsehen. 2006 Erstmals werden in Deutschland (ein Jahr später auch weltweit) mehr Flachbild-Fernseher verkauft, als Röhrenfernseher. Allerdings kommen preiswerte Geräte oft noch ohne digitale Eingänge, sind also nur für das Analogfernsehen geeignet. Bessere Geräte sind mindestens HD-Ready, haben also mindestens einen HDMI-Eingang für digitale Zuspieler oder Set-Top-Boxen. Einige Top-Modelle haben sogar bereits digitale Empfangsteile für HD-Fernsehen eingebaut, die Set-Top-Boxen auf absehbare Zeit überflüssig machen. Nahezu zeitgleich kommen zwei konkurrierende Formate auf den Markt, die beide zum Ziel haben die DVD im HD-Zeitalter abzulösen: BluRay und HD-DVD. Da nur wenige Fernseher einen digitalen HDMI-Eingang haben, bieten die Abspielgeräte auch analoge Ausgänge. Am Ende wird sich das BluRay-Format durchsetzen. Erste Camcorder nach dem AVCHD-Standard von Sony und Panasonic kommen auf den Markt. Gegenüber HDV-Camcordern bieten sie eine bessere Auflösung bei besserer Datenkompression durch das H.264-Verfahren. Sie zeichnen nicht mehr mit fester Datenrate auf Band auf, sondern mit variabler Datenrate, je nach Modell auf Festplatte oder DVD. Schon die ersten Geräte sind auch für ambitionierte Amateure erschwinglich. Mit der bald folgenden Einführung geeigneter Nachbearbeitungssoftware und professioneller Camcorder-Modelle beginnt die Ablösung des erst 2 Jahre alten HDV-Formats in allen Bereichen. 2007 Mit dem Apple iPhone kommt das erste SmartPhone auf den Markt, das ganz gezielt auch Freizeitnutzer ansprechen soll. Die komplette Audio- und Videofunktionalität eines iPods der 5. Generation wird darin mit einem Mobiltelefon und einem Taschencomputer kombiniert. Eine neuartige Benutzeroberfläche auf dem formatfüllenden Touchscreen soll die Nutzer trotz hohen Preises ansprechen. Durch drahtlose Internet-Verbindung wird der Direktvertrieb von Medien (iTunes Store) und Software (App Store) möglich. Der Multimedia-Konsum wird erstmals unabhängig vom heimischen Computer -- ein Meilenstein der Konvergenz von Computertechnik und Unterhaltungselektronik. In den Folgejahren wird das iPhone zum Trendsetter einer neuen Branche. 2008 Die HD-DVD wird eingestellt -- BluRay hat sich als Nachfolger der DVD durchgesetzt. Das Smartphone HTC Dream bringt eine Kombination aus eher traditioneller Hardware (mit Schiebetastatur) und dem neuen Betriebssystem Android. Dieses wird dank weiterer neuer Smartphone-Modelle verschiedener Hersteller schon bald zur ernst zu nehmenden Konkurrenz für Apple's iPhone. 2010 In den USA werden erstmals mehr Android-Mobiltelefone als iPhones verkauft. Nach dem durchschlagenden Erfolg von iOS und Android auf dem Smartphone-Markt bringt Microsoft mit Windows Phone einen inkompatiblen Nachfolger für das im Massenmarkt erfolglose Windows Mobile. Damit laufen ab dem Folgejahr vor allem die Nokia-Smartphones. Den Marktanteil von iOS oder Android erreicht Windows Phone aber nie. Apple bringt mit dem iPad den ersten modernen, Internet-fähigen Tablet Computer auf den Markt. Im Prinzip handelt es sich um ein iPhone mit viel größerem Display, dafür aber ohne Telefonfunktion. Damit beginnt eine rasante Entwicklung, in der die Unterschiede zwischen Notebook-Computern und Tablets immer mehr verschwimmen. Viele Funktionen des iPads kann man mit der ebenfalls neuen Internet-Set-Top-Box Apple TV auch jedem Fernseher beibringen. Bald darauf erscheinen auch die ersten so genannten Smart-TVs, die ähnliche Funktionen bereits eingebaut haben. 2011 Philips stellt als letzter Hersteller die Produktion von Röhrenfernsehern ein. Die Braun'sche Röhre hat endgültig ausgedient. 2012 Am 30.4. endet das analoge Fernsehzeitalter auch für das Satellitenfernsehen: ASTRA stellt die letzten analogen Fernsehkanäle auf DVB-S um. Damit bleibt als letzter analoger Empfangsweg das Kabelfernsehen. Die ersten 4K-Fernseher mit einer gegenüber HD-Geräten verdoppelten Auflösung von 3840 × 2160 Pixeln kommen auf den Markt. Programmmaterial gibt es dafür allerdings -- abgesehen von hochauflösenden Fotos und einigen beeindruckenden Demo-Videos -- noch nicht. In der Folgezeit etablieren sich deshalb mehr und mehr Internet-basierte Programmquellen. 2016 In einigen Ballungsgebieten beginnt die Umstellung terrestrischer Fernsehprogramme auf den neuen, zu DVB-T inkompatiblen Standard DVB-T2 HD. Für viele Nutzer bedeutete das die Anschaffung der zweiten Set-Top-Box innerhalb weniger Jahre. Über die Hälfte aller Haushalte verfügt über ein Internet-fähiges Smart-TV[4], noch mehr über einen Breitband-Internetanschluss. Immer mehr Multimedia-, Audio- und Videoinhalte werden nicht mehr von lokalen Datenträgern, sondern direkt aus dem Internet konsumiert ("gestreamt") -- auf Fernsehern, Web-Radios, Streaming Clients, Tablets und Smartphones. Computer und Internet sind integraler Bestandteil der Unterhaltungselektronik geworden. 2017 Microsoft stellt den Support von Windows Phone ein. Damit bleiben nur Android und iOS als Smartphone-Betriebssysteme mit nennenswertem Marktanteil. 2018 Die großen Kabelnetzbetreiber, die das nicht schon früher getan haben, stellen zum Jahresende die Verbreitung analoger Fernsehprogramme ein. Einige kleinere Versorgungsgebiete lokaler Anbieter sollen bis spätestens Mitte 2019 folgen. Das analoge Fernsehen ist Geschichte. DVB-T2 erlaubt in Deutschland flächendeckend hochauflösendes Digitalfernsehen mit einer herkömmlichen Antenne, wie sie auch schon im Analogzeitalter verwendet wurde. Der inkompatible Vorgängerstandard DVB-T wird nur noch von einigen Regionalsendern in Hamburg, Halle, Leipzig und Berlin verwendet, die bis Mitte 2019 umgestellt werden sollen. Damit ist auch dieser erste terrestrische Digitalfernseh-Standard nach gut 20 Jahren Geschichte. Noch immer liegt der Marktanteil von DAB-Radios bei unter 25 %. Das EU Parlament beschließt eine Digitalradio-Pflicht für Neuwagen voraussichtlich ab 2021. Ein Ende des UKW-Rundfunks ist dennoch nicht absehbar. Erstmals werden mit dem Online-Vertrieb von Musik mehr Umsätze gemacht, als mit dem Verkauf von CDs. Vernetzung Heute geht der Trend in Richtung ?vernetzte Hausgeräte?, meist über Powerline-Lösungen. Die Darstellung der Vernetzung bzw. die Steuerung der Geräte erfolgt dabei meist über einen Web-Browser, und ist manchmal mit anderen Gebäudeautomatisierungslösungen integriert, so dass sich der Kreislauf zur Unterhaltungselektronik bzw. den neuen Medien schließt. Das Ziel der Vernetzung ist jeweils, den Mehrwert bei der Gerätenutzung zu steigern und neue (Fern-)Bedienmöglichkeiten zu schaffen. Die zugrundeliegende Technologie ist meist LON, UPnP oder KNX-Standard. Weltweit bedeutsame Messen Messen mit Ausstellern aus aller Welt und weltweiter Berichterstattung sind vor allem: Internationale Funkausstellung in Berlin: über 100.000 Fachbesucher, über 100.000 Besucher (?Endverbraucher?), ca. 1400 Aussteller, über 130.000 m² Ausstellungsfläche Consumer Electronics Show in Las Vegas: Ca. 150.000 Fachbesuchern, 3100 Aussteller Brenner (Hardware) 5,25?-CD-RW-Brenner Slimline-CD-RW-Brenner / DVD-ROM-Laufwerk Optischer Schreib-Lese-Kopf eines CD/DVD-Laufwerkes; in der Mitte ist die in zwei Achsen bewegliche Fokussierlinse zu sehen. Als ein Brenner wird in der Informationstechnik ein optisches Laufwerk bezeichnet, mit welchem CDs, DVDs oder Blu-ray Discs sowohl gelesen als auch mit Brennprogrammen beschrieben (?gebrannt?) werden können. Im Gegensatz zur Vervielfältigung in einem Presswerk werden Daten von einem Brenner dupliziert, nicht repliziert. Zunächst konnten Audio-CDs und CD-ROMs von Endverbrauchern nur abgespielt oder ausgelesen, jedoch nicht selbst beschrieben werden. Im Jahr 1992 (zur Photokina) kamen CD-Brenner auf den Markt, wobei diese jedoch einen für viele Benutzer unerschwinglichen Preis hatten (22.000 DM). Mit der Markteinführung der DVD wurden CD-Brenner jedoch erheblich günstiger und damit für den Massenmarkt tauglich. Heute gehören DVD-Brenner bei neuen Computern zur Standardausstattung. In den letzten Jahren wurden DVD-Brenner auch in Unterhaltungselektronik wie Videorekordern und HiFi-Anlagen eingebaut. Anfänglich wurde vor allem die Erhöhung der Lese- und Brenngeschwindigkeiten der Laufwerke vorangetrieben; mittlerweile wird die Unterstützung möglichst vieler verschiedener CD- und DVD-Formate sowie die Erhöhung der Brennqualität angestrebt. Da mit Brennern urheberrechtlich geschütztes Material vervielfältigt werden kann, müssen Hersteller und Importeure von Brennern seit Anfang der 1990er-Jahre eine Pauschalabgabe an die Verwertungsgesellschaften bezahlen. Grundsätzliche Brenner-Varianten Nachfolgend die drei grundsätzlichen Brennervarianten in ihrer historischen Reihenfolge (CD, DVD und BD). CD-Brenner Ein CD-Brenner ist ein Gerät zum Beschreiben von CD-R- oder CD-RW-Rohlingen, die dann mit einem normalen CD-Spieler oder CD-ROM-Laufwerk ausgelesen werden können. Die CD-Brenner der ersten Generation können nur CD-R-Rohlinge beschreiben. Alle heute auf dem Markt befindlichen CD-Brenner können sowohl CD-R-Rohlinge als auch CD-RW-Rohlinge beschreiben. Der CD-Brenner arbeitet mit einem Laser, mit dem das Material der CD-R oder CD-RW lokal erhitzt wird, so dass sich die Reflexionseigenschaften ändern. Bei CD-Rs ist dieser Vorgang irreversibel, während CD-RWs wieder gelöscht werden können. Die Geschwindigkeit des Beschreibvorgangs, auch Brennvorgang genannt, wird in Vielfachen von 176,4 KB/s (Raw- bzw. Musik-Daten; entspricht 150 KB/s Nutzdaten) angegeben, wobei dies der Lesegeschwindigkeit einer normalen Audio-CD entspricht. So braucht ein Vierfach-Brenner zum Brennen einer 74-min-CD (650 MB) 18,5 Minuten. Brenngeschwindigkeiten bis zu 56-fach sind üblich. Bei Geschwindigkeiten von über 48-fach besteht das Risiko einer Beschädigung der Rohlinge durch die auftretenden Zentrifugalkräfte, weshalb die meisten handelsüblichen Brenner nur mit bis zu 48-fach oder 52-fach arbeiten. Geräte, die CDs brennen und lesen, DVDs aber lediglich lesen können ? mit anderen Worten, CD-Brenner mit integriertem DVD-Laufwerk ? bezeichnet man als Combo-Laufwerke; durch den Preisverfall bei DVD-Brennern sind diese mittlerweile praktisch vom Markt verschwunden. Eingesetzt wurden sie vermehrt vor allem als Slimline-Laufwerk in Notebooks und in Macs ohne ?Superdrive?. CD-Brenner können in der Regel auch außerhalb der spezifizierten Bereiche schreiben, etwa bei Audio-CDs jenseits von 74 Minuten, insbesondere im Bereich der 80. bis 82. Minute. Diese Fähigkeit wird als Overburn (?Überbrennen?) bezeichnet. Hierbei besteht das Risiko, dass einige CD-Player diesen Bereich nicht mehr lesen können. CD-Brenner, die ausschließlich zur Aufnahme oder Duplikation von Audio-CDs konzipiert sind, werden als CD-Rekorder bezeichnet. DVD-Brenner 5,25?-DVD-RW-Brenner Ein DVD-Brenner, die Weiterentwicklung des CD-Brenners, ist ein Gerät zum Beschreiben von DVD-Rohlingen. Alle modernen DVD-Brenner können beschriebene CDs und DVDs lesen, fast alle können auch CD-Rohlinge beschreiben. Die Brenn-Technologie ist ähnlich wie beim CD-Brenner, nur arbeitet das Gerät mit einer höheren Auflösung. Die Geschwindigkeit des Brennvorgangs wird in Vielfachen von 1,385 MiB/s angegeben. ?einfach? bedeutet also etwa eine Stunde pro 4,7-GB-Rohling (entsprechend 4,38 GiB bzw. 4489 MiB), ?zweifach? entspricht einer halben Stunde pro Rohling, ?vierfach? entspricht einer Viertelstunde usw. Die höheren Geschwindigkeiten (ab ca. sechsfach) werden nicht mehr auf dem gesamten Rohling wirksam. Die Brenner steigern die Geschwindigkeit von innen nach außen in zwei verschiedenen Verfahren: kontinuierlich im CAV-Modus oder stufenweise im ZCLV-Modus. Somit steigert sich die effektive Brenngeschwindigkeit bei höheren Nenn-Geschwindigkeiten nur noch gering. Da sich allerdings Materialschwankungen gerade in den äußeren Randbereichen der DVD-Rohlinge auswirken, steigt mit zunehmendem Brenntempo ? welches ja erst im äußeren Bereich zum Tragen kommt ? auch die Fehlerrate. Die meisten von DVD-Brennern beschriebenen DVD-Rohlinge können sowohl in DVD-ROM-PC-Laufwerken als auch in heutigen DVD-Spielern abgespielt werden. DVD-R-Rohlinge sind oft besser lesbar als DVD+R-Rohlinge, da nur sie standardisiert sind. Wird von der Möglichkeit des Bitsettings Gebrauch gemacht, werden DVD+R-Rohlinge allerdings von einigen Laufwerken akzeptiert, die beschreibbare DVDs sonst abweisen. Neuere Brenner können auch DL-Medien (Double Layer bzw. Dual-Layer) mit einem Volumen von 8,5 GB (entsprechend 7,96 GiB bzw. 8152 MiB) beschreiben. Folgende Bezeichnungen sind bei DVD-Brennern gebräuchlich: Multi = DVD-R/-RW und DVD+R/+RW Super = zusätzlich DVD-RAM Plus = zusätzlich Double Layer Superdrive = ein Brenner in Apple-Computern, der DVD und CD schreiben und lesen kann. Ein SuperMultiPlus-DVD-Brenner etwa ist also kompatibel zu DVD±R/RW und DVD-RAM und kann außerdem doppellagige Medien (soweit verfügbar) beschreiben. Blu-ray-Brenner 5,25?-Blu-ray-Brenner Ein Blu-ray-Brenner ist der Nachfolger der CD- und DVD-Brenner und kann neben Blu-ray Discs (BD, BD-R und BD-RE) im Regelfall auch alle vorherigen Formate (inkl. DVD-RAM) lesen und beschreiben. Viele BD-Brenner können auch HD-DVDs lesen. SuperDrive SuperDrive ist ein Apple-spezifisches Laufwerk, das 1998?99 für das 3,5?-Format eingeführt wurde und seit 2001 einen CD/DVD-Brenner bezeichnet. Das SuperDrive wird als slot load drive ausgeführt und ist daher nicht in der Lage, das Mini-CD-Format zu verarbeiten. 5,25? SuperDrive Theoretische Brenndauer im Vergleich In den nachfolgenden Tabellen wird die Brenndauer der typisch auf dem Markt verbreiteten Rohlinge (Discs) verglichen. Compact Disc Typische Brenngeschw. Datenrate (in KiB/s) Brenndauer (in min) Mini-CD 210 MB CD-R 650 MB CD-R 700 MB CD-R 800 MB 1-fach 150 23,9 74,0 79,6 91,0 2-fach 300 11,9 37,0 39,8 45,5 4-fach 600 6,0 18,5 19,9 22,8 8-fach 1200 3,0 9,2 10,0 11,4 12-fach 1800 2,0 6,2 6,6 7,6 16-fach 2400 1,5 4,6 5,0 5,7 24-fach 3600 1,0 3,1 3,3 3,8 32-fach 4800 2,3 2,5 2,8 48-fach 7200 1,5 1,7 1,9 52-fach 7800 1,4 1,5 1,8 Digital Versatile Disc Typische Brenngeschw. Datenrate (in KiB/s) Brenndauer (in min) MiniDVD 1,46 GB DVD R 4,7 GB DVD DL 8,5 GB 1-fach 1385 18,4 59,3 107,3 2-fach 2770 9,2 29,7 53,6 2,4-fach 3324 7,7 24,7 44,7 4-fach 5540 4,6 14,8 26,8 6-fach 8310 9,9 17,9 8-fach 11080 7,4 13,4 12-fach 16620 4,9 8,9 16-fach 22160 3,7 6,7 18-fach 24900 3 6 20-fach 27700 3 5 22-fach 30500 3 5 24-fach 33200 2 4 Blu-ray Disc Typische Brenngeschw. Datenrate (in MByte/s) Brenndauer (in min) BD 25 GB BD DL 50 GB BDXL (3 Layer) 100 GB[1] BDXL (4 Layer) 128 GB[1] 1-fach 4,5 94,8 189,6 379,3 485,5 2-fach 9 47,4 94,8 189,6 242,7 4-fach 18 23,7 47,4 94,8 121,4 6-fach 27 15,8 31,6 8-fach 36 11,9 22,5 12-fach[2] 54 7,9 15 16-fach[3] 72 5,625 11,25 Die Brenndauer entspricht der Zeit, bis ein Rohling komplett mit Daten beschrieben worden ist. Diese Werte ergeben sich aus der Datenrate und der Datenkapazität des Rohlings. In der Praxis ist meist die Brenndauer höher, da die Rohlinge bei hohen Brenngeschwindigkeit nicht von Anfang an mit der eingestellten Brenngeschwindigkeit beschrieben werden. Die Daten werden auf den Rohling i.?d.?R. von innen nach außen geschrieben, dabei ist die Brenngeschwindigkeit innen langsamer. Des Weiteren werden z.?B. für das Lead-in bzw. Lead-out die Brenngeschwindigkeit verändert. Ein Datenabriss (Buffer-Underrun) trägt ebenfalls zu einer längeren Brenndauer bei. Brenn-Beschriftungstechniken Seit 2004 existieren unterschiedliche Verfahren, den Rohling direkt mit dem Brenner und einem geeigneten Programm zu beschriften. Derzeit existieren zwei verschiedene Techniken, namentlich LightScribe und Labelflash. Der Vorgänger von Labelflash ist DiscT@2. Recorder Identification Code Auf Druck der Musikindustrie (vertreten durch IFPI und RIAA) hat Philips einen sogenannten Recorder Identification Code (RID) als Maßnahme zur eindeutigen Zuordnung jeder gebrannten CD zu ihrem Brenner in die Rainbow Books aufgenommen. Der RID-Code ist damit das Gegenstück zum Source Identification Code (SID), dem acht Zeichen langen Herstellercode für CD-Rohlinge. Der RID-Code setzt sich zusammen aus dem Herstellercode (zum Beispiel ?PHI? für Philips), der Modellnummer und der eindeutigen Seriennummer des Brenners. 2006 erhielt Philips hierfür den Negativpreis Big Brother Award. Inkompatibilitäten Im Zusammenhang vor allem mit dem Brennen von CDs treten immer wieder Inkompatibilitäten auf, die häufig auf eine falsche Schreibstrategie in den betroffenen Geräten zurückzuführen sind. Einige CD-Brenner können bestimmte Rohlinge nicht verarbeiten. Vor allem ältere CD-ROM-Laufwerke und Audio-CD-Spieler können gebrannte CDs nicht lesen oder nur auf bestimmte Rohlinge gebrannte CDs lesen. Alternativ wird die gebrannte CD zwar erkannt, es kommt aber zu Lesefehlern. Ältere CD-ROM-Laufwerke und Audio-CD-Spieler können gebrannte CD-RWs nicht lesen. CD-RWs, die mit mehr als vierfacher Geschwindigkeit gebrannt wurden, können von älteren Geräten nicht gelesen werden. Diskutiert wird in diesem Zusammenhang auch, ob die Brenngeschwindigkeit bei CD-Rs einen Einfluss auf deren Lesbarkeit in anderen Geräten hat. Wird die gebrannte CD zwar erkannt, es kommt aber zu Lesefehlern, kann dies auch an Staub in der Lasereinheit der betroffenen Geräte liegen. Siehe auch Buffer-Underrun Chipsatz Klassisches Schema eines Chipsatzes auf einer PC-Hauptplatine. Heute befindet sich oft der RAM-Controller in der CPU und stattdessen ein integrierter Grafikprozessor in der Northbridge. Als Chipsatz bezeichnet man im Allgemeinen mehrere zusammengehörende integrierte Schaltkreise, die zusammen eine bestimmte Aufgabe erfüllen. Normalerweise ist es nicht sinnvoll, nur einzelne Chips aus der Gesamtheit eines Chipsatzes zu benutzen. Es sprechen meist lediglich technische Gründe dagegen, sämtliche Funktionalität auf einem Chip unterzubringen ? zum Beispiel Beschränkungen der Komplexität eines Chips, der Anzahl der Anschlüsse eines Chip-Gehäuses oder unterschiedliche Anforderungen einzelner Schaltungsteile, die sich durch unterschiedliche Halbleiterprozesse bzw. -materialien realisieren lassen (z. B. HF-Signal-Verarbeitung mit Galliumarsenid und Basisband-Verarbeitung mit Silizium). Im Speziellen ist der Chipsatz auf einer PC-Hauptplatine gemeint, der einen Mikroprozessor bei seiner Aufgabe unterstützt. Grund für die Aufteilung auf mehrere Schaltkreise ist hierbei die Anzahl der benötigten elektrischen Anschlüsse. Geschichte PC-XT-kompatible Hauptplatine von 1989. Es gibt keinen Chipsatz, die Platine ist mit den Standard-Peripherie-Bausteinen des Original-IBM-PC-Designs bestückt. Die Steuerlogik ist ausschließlich mit Transistor-Transistor-Logik realisiert, im Fachjargon als ?TTL-Grab? bezeichnet PC-Hauptplatine von 2005 mit North- und Southbridge und entsprechend weniger ?diskreten? Logikbausteinen. Bei frühen Heimcomputern und Personal Computern (etwa 1970er bis Mitte der 1980er Jahre) besteht das System neben dem Mikroprozessor typischerweise aus einer Reihe von eigenständigen Schnittstellen-Chips, die alle über Adress-, Daten- und Steuer-Bus direkt vom Prozessor angesprochen werden; ein Adressdekoder selektiert den jeweils gemeinten Chip. Mit fortschreitender Integrationstiefe wurden immer mehr dieser verteilten Funktionen in größeren Chips zusammengefasst. Dabei bildeten sich gewisse Quasi-Standards heraus. Der erste Chipsatz für den IBM-PC/AT war der NEAT-Chipsatz für den Intel 80286. Heute bestehen Chipsätze üblicherweise aus der in den 1990er Jahren von Intel eingeführten Zwei-Brücken-Architektur, bestehend aus Northbridge und Southbridge. Die Namen leiten sich von der üblichen Lage der Chips auf einer Hauptplatine ab. Die Northbridge liegt (bei senkrechter Montage der Platine, wie in Towergehäusen üblich) meist in der oberen Hälfte der Platine, also im ?Norden? (engl. ?north?), während die Southbridge meist unterhalb verbaut wird, also im ?Süden? (engl. ?south?). Die beiden Chips dienen zur Steuerung und zum Datentransfer der einzelnen Komponenten der Hauptplatine und der peripheren Geräte. In der Regel wird der Mikrochip der Northbridge für die Realisierung von Schnittstellen größerer Bandbreite verwendet; die Southbridge integriert dagegen die langsameren Peripherieschnittstellen. North- und Southbridge wurden anfangs über PCI verbunden. Als dessen Bandbreite nicht mehr ausreichte, um die Vielzahl der inzwischen in die Southbridge integrierten Peripherieschnittstellen ausreichend schnell zu bedienen, führten die Hersteller proprietäre Interconnects ein. Beispiele hierfür sind Intels Hub Interface, VIAs V-Link und der von SiS entwickelte MuTIOL Interconnect. Die Aufteilung der Funktionalitäten auf die zwei Teilchips North- und Southbridge variiert leicht von Hersteller zu Hersteller. Im Zuge der weiter fortschreitenden Miniaturisierung ist die Aufteilung in zwei Chips neuerdings auch schon aufgehoben, siehe bei Southbridge. Immer mehr Hersteller bieten ?Ein-Chip-Chipsätze? an. Bedeutende Hersteller von Chipsätzen für x86-kompatible Architekturen sind heute nur noch Intel und AMD. In der Vergangenheit waren auch VIA Technologies, Nvidia, SiS, ULi, ALi, ATI, Broadcom (für Serverrechner), UMC, Symphony Laboratories, Texas Instruments, VLSI Technology und Chips & Technologies engagiert. Chipsatz des Commodore Amiga Der Amiga-Computer von Commodore basiert auf einem proprietären Chipsatz. Hier sind es vor allem die Grafik- und Tonausgabe, die mit Priorität behandelt werden. Der Chipsatz des Amiga wurde wegen der begrenzten Fertigungsmöglichkeiten Anfang der 1980er Jahre auf drei Chips verteilt, ist aber als Einheit zu sehen. Demzufolge wird in der technischen Dokumentation häufig nur von dem Chipsatz gesprochen, ohne dass die Einzelchips genannt werden. Der Chipsatz basiert auf einer DMA-Einheit, die den Rest mit Grafik- und Audio-Daten versorgt, daneben aus weiteren, seinerzeit üblichen, externen Schnittstellen. Für Details siehe den Artikel Original Chip Set. Chipsatz des Atari ST Der Chipsatz des Atari-ST-Computers von Atari bestand ursprünglich aus vier Chips, den sogenannten Custom-Chips. Dies sind: DMA, Shifter, MMU und Glue. Später kam der Blitter als weiterer Chip dazu. Computer Babbages Analytical Engine, 1834-1871. (9660574685).jpg Versuchsmodell der Analytical Engine Z3 Deutsches Museum.JPG Zuse Z3, 1941 Two women operating ENIAC.gif ENIAC, 1946 Pdp-7-oslo-2004.jpeg DEC PDP-7, 1965 Apple II Plus, Museum of the Moving Image.jpg Apple II, 1977 IBM PC 5150.jpg IBM-PC, 1981 MacBook.jpg Notebook (Laptop) MacBook, 2006 IBM Blue Gene P supercomputer.jpg IBM Blue Gene, 2007 Summit (supercomputer).jpg Summit, 2018 Ein Computer [k?m?pju?t?] oder Rechner ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Dementsprechend sind vereinzelt auch die abstrahierenden bzw. veralteten, synonym gebrauchten Begriffe Rechenanlage, Datenverarbeitungsanlage oder elektronische Datenverarbeitungsanlage anzutreffen. Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell programmierbaren Computers. Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte dieser Art. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hatte.[1][2] Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche verarbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist. Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in ?Fahtenten? diverse Manöver selbst. Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer (engl. für Persönliche Computer, als Gegensatz zu von vielen genutzten Großrechnern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen. Rechner Der deutsche Begriff Rechner ist abgeleitet vom Verb rechnen. Zur Etymologie siehe Rechnen#Etymologie. Computer Das englische Substantiv ?computer? ist abgeleitet von dem englischen Verb ?to compute?. Jenes ist abgeleitet von dem lateinischen Verb ?computare?, was zusammenrechnen bedeutet. Der englische Begriff ?computer? war ursprünglich eine Berufsbezeichnung für Hilfskräfte, die immer wiederkehrende Berechnungen (z. B. für die Astronomie, für die Geodäsie oder für die Ballistik) im Auftrag von Mathematikern ausführten und damit Tabellen wie z. B. eine Logarithmentafel füllten. In der Kirchengeschichte war mit der Hinrichtung des Jesus eine Ablösung von der jüdischen und eine Hinwendung zur römischen Zeitrechnung verbunden. Die hieraus resultierenden Berechnungsschwierigkeiten des Osterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mit ?Computus Ecclesiasticus?. Doch finden sich noch weitere Titel, z. B. von Sigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzen. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613.[3] In der Zeitung The New York Times tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der United States Navy mit dem Titel ?A Computer Wanted? (Ein Rechner gesucht) auf, in der Kenntnisse in Algebra, Geometrie, Trigonometrie und Astronomie vorausgesetzt worden sind.[4] An der University of Pennsylvania in Philadelphia wurden im Auftrag der United States Army ballistische Tabellen berechnet. Das Ergebnis waren Bücher für die Artillerie, die für unterschiedliche Geschütze Flugbahnen unterschiedlicher Geschosse vorhersagten. Diese Berechnungen erfolgten größtenteils von Hand. Die einzige Hilfe war eine Tabelliermaschine, die zu multiplizieren und zu dividieren vermochte. Die Angestellten, die dort rechneten, wurden als ?computer? bezeichnet.[5] Katherine Johnson ist ein Beispiel für eine Computerfrau[6] Sie berechnete Raumflüge für die NASA. Henrietta Swan Leavitt war ein Computer. Grundlagen Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Rechner ist ein Digitalrechner, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogrechner, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom). Heute werden fast ausschließlich Digitalrechner eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalrechner werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt. Ein Digitalrechner besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung. Ein Digitalrechner kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die eingangs erwähnte Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar. Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden. Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollständig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digitalen Computer kombinierten. Mögliche Einsatzmöglichkeiten für Computer sind: Mediengestaltung (Bild- und Textverarbeitung) Verwaltungs- und Archivierungsanwendungen Steuerung von Maschinen und Abläufen (Drucker, Produktion in der Industrie durch z. B. Roboter, eingebettete Systeme) Berechnungen und Simulationen (z. B. BOINC) Medienwiedergabe (Internet, Fernsehen, Videos, Unterhaltungsanwendungen wie Computerspiele, Lernsoftware) Kommunikation (Chat, E-Mail, soziale Netzwerke) Softwareentwicklung Hardwarearchitektur Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als Von-Neumann-Architektur bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten: das Rechenwerk (im Wesentlichen die arithmetisch-logische Einheit (ALU)), das Steuerwerk, die Buseinheit, das Speicherwerk sowie die Eingabe-/Ausgabewerk(e). In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor). Der Speicher ist eine Anzahl von durchnummerierten, adressierbaren ?Zellen?; jede von ihnen kann ein einzelnes Stück Information aufnehmen. Diese Information wird als Binärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt. Bezüglich des Speicherwerks ist eine wesentliche Designentscheidung der Von-Neumann-Architektur, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich). Demgegenüber stehen in der Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung. Der Zugriff auf die Speicherbereiche kann parallel realisiert werden, was zu Geschwindigkeitsvorteilen führt. Aus diesem Grund werden digitale Signalprozessoren häufig in Harvard-Architektur ausgeführt. Weiterhin können Daten-Schreiboperationen in der Harvard-Architektur keine Programme überschreiben (Informationssicherheit). In der Von-Neumann-Architektur ist das Steuerwerk für die Speicherverwaltung in Form von Lese- und Schreibzugriffen zuständig. Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann. Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen. Softwarearchitektur Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den ?unbedingten Sprung?). Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe ?A? und damit als Zahl ?65? (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens ?A?, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste ?A? gedrückt hat). In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode ? jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird. Computersystem Als Computersystem bezeichnet man (a) einerseits ein Netzwerk oder einen Verbund aus mehreren Computern, die individuell gesteuert werden und auf gemeinsam genutzte Daten und Geräte zugreifen können, (b) die einen einzelnen voll funktionstüchtigen Rechner in ihrem Zusammenspiel bedingende Gesamtheit von externen und internen Komponenten, d. h. Hardware, Software wie auch angeschlossenen Peripheriegeräten sowie (c) ein System von Programmen zur Steuerung und Überwachung von Computern.[7] Geschichte ? Hauptartikel: Geschichte des Computers Arten Basierend auf Arbeitsweise des Computers Analogrechner Digitalrechner Hybridrechner Basierend auf der Größe Smartphone Personal Digital Assistant oder PDA, waren die Vorläufer der Smartphones. Tabletcomputer Eingebettetes System, z. B. im Auto, Fernseher, Waschmaschine usw. Einplatinencomputer, z. B. Raspberry Pi, billigste, sehr kleine Computer. Werden meist als eingebettete System verwendet. Personal computer oder PC, hier als Desktop-Computer oder auch Arbeitsplatzrechner verstanden. Hostrechner oder auch Server, eingebunden in einem Rechnernetz, meist ohne eigenen Display, Tastatur usw. Thin Client sind Rechner, die nur in Zusammenarbeit mit einem größeren Rechner, meist server, richtig funktionieren. Heimcomputer (veraltet), der Vorläufer des PC. Spielkonsole Netbook, ein kleines Notebook. Laptop oder Notebook Minicomputer (veraltet) Superminicomputer (veraltet) Mikrocomputer (veraltet) Mainframe computer oder Großrechner. Supercomputer, die schnellsten Rechner ihrer Zeit, brauchen den Platz einer Turnhalle, die Energie einer Kleinstadt und sind sehr teuer. Zukunftsperspektiven Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Ein großer Megatrend sind derzeit (2017) die Entwicklung künstlicher Intelligenzen. Bei diesen simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbstlernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Daten trainiert werden ähnlich einem Gehirn. Der Zeitpunkt an dem künstliche Intelligenz die menschliche Intelligenz übertrifft nennt man technologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, eingesetzt (s. Anwendungen der künstlichen Intelligenz). Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Vergleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops.[8] (s. technologische Singularität) Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing. Die weltweite Websuche nach dem Begriff ?Computer? nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.[9] Zeitleiste Weltweite Marktanteile der Computerhersteller Verkaufszahlen und Marktanteile der Computerhersteller nach Angaben des Marktforschungsunternehmens Gartner Inc., basierend auf Verkaufszahlen von Desktop-Computer, Notebooks, Netbooks, aber ohne Tablet-Computer, an Endkonsumenten:[10][11][12] Rang Hersteller Land Verkaufszahlen 2017 Marktanteil 2017 Verkaufszahlen 2011 Marktanteil 2011 Verkaufszahlen 2010 Marktanteil 2010 Verkaufszahlen 2009 Marktanteil 2009 1. Hewlett-Packard Flag of the United States.svg 55.179.000 21,0 % 60.554.726 17,2 % 62.741.274 17,9 % 58.942.530 19,1 % 2. Lenovo Flag of the People's Republic of China.svg 54.669.000 20,8 % 45.703.863 13,0 % 38.180.444 10,9 % 24.735.404 8,0 % 3. Dell Flag of the United States.svg 39.793.000 15,1 % 42.864.759 12,1 % 42.119.272 12,0 % 37.353.774 12,1 % 4. Apple Flag of the United States.svg 18.963.000 7,2 % unter Sonstige unter Sonstige unter Sonstige unter Sonstige unter Sonstige unter Sonstige 5. Asus Flag of the Republic of China.svg 17.952.000 6,8 % 20.768.465 5,9 % 18.902.723 5,4 % unter Sonstige unter Sonstige 6. Acer-Gruppe Flag of the Republic of China.svg 17.087.000 6,5 % 39.415.381 11,2 % 48.758.542 13,9 % 39.783.933 12,9 % Toshiba Flag of Japan.svg unter Sonstige unter Sonstige unter Sonstige unter Sonstige 19.011.752 5,4 % 15.499.805 5,0 % Sonstige Hersteller 59.034.000 22,5 % 143.499.792 40,6 % 128.862.141 34,5 % 132.026.226 42,9 % Insgesamt 262.676.000 100 % 352.806.984 100 % 350.900.332 100 % 308.341.673 100 % Bekannte Computerhersteller Aktuelle Hersteller Republik China (Taiwan) Acer (mit Gateway, Packard Bell, eMachines) Vereinigte Staaten Apple Republik China (Taiwan) ASRock Republik China (Taiwan) Asus Republik China (Taiwan) BenQ Deutschland Bluechip Computer Republik China (Taiwan) Compal Vereinigte Staaten Cray Vereinigte Staaten Dell Japan Fujitsu Republik China (Taiwan) Gigabyte Volksrepublik China Hasee Indien HCL Vereinigte Staaten HP Inc. Vereinigte Staaten IBM Volksrepublik China Lenovo Kanada MDG Computers Deutschland Medion Republik China (Taiwan) MSI Japan NEC Corporation Italien Olivetti Japan Panasonic Brasilien Positivo Republik China (Taiwan) Quanta Computer Russland Rover Computers Südkorea Samsung Japan Sony Japan Toshiba Vereinigte Staaten Unisys Türkei Vestel Vereinigte Staaten ViewSonic Deutschland Wortmann Bekannte ehemalige Computerhersteller Vereinigtes Königreich Acorn Vereinigte Staaten Amdahl Corporation Vereinigtes Königreich Amstrad Vereinigte Staaten Atari Vereinigte Staaten Commodore International Vereinigte Staaten Compaq Vereinigte Staaten Control Data Corporation Vereinigte Staaten Digital Equipment Corporation Deutschland Dietz-Computer-Systeme Deutschland Escom Japan/Deutschland Fujitsu Siemens Computers Österreich Gericom Vereinigte Staaten Kaypro Deutschland Maxdata Vereinigte Staaten NeXT Norwegen Norsk Data Deutschland Nixdorf Computer Deutschland Schneider Computer Division Vereinigtes Königreich Sinclair Research Deutschland Waibel Deutschland Zuse KG Deutschland Robotron Hauptplatine Die Hauptplatine (englisch Mainboard, auch Motherboard) ist die zentrale Platine eines Computers. Auf ihr sind die einzelnen Bauteile wie Prozessorsockel, RAM-Steckplätze, der BIOS-Chip mit der integrierten Firmware, Schnittstellen-Bausteine und Steckplätze für Erweiterungskarten montiert; die dafür notwendigen Leiterbahnen sind auf mehrere Lagen (Layer) aufgeteilt. Hauptplatine aus dem Jahr 2004 (ASRock K7VT4A Pro) Die Hauptplatine beinhaltet den Sockel für die CPU, Steckplätze für Speicherbausteine und Erweiterungskarten wie Grafik-, Sound- und Netzwerkkarten sowie Bausteine, die die Komponenten miteinander verbinden. Die ehemalige Aufteilung in eine Northbridge für die hochperformante Anbindung von Arbeitsspeicher und Grafikkarte und eine Southbridge für Festplatte, PCI-Steckplätze und Peripheriegeräte verschwindet derzeit (2010). Funktionen wie etwa der Speichercontroller sind mittlerweile in der CPU selbst integriert, weswegen ein Zwei-Chip-Design überflüssig wurde. Manche sprechen dennoch weiterhin von einer Southbridge und einem Chipsatz, obwohl es faktisch nur noch ein zentraler Baustein auf der Hauptplatine ist. Viele ehemalige Einzelkomponenten sind heute bereits fest auf dem Mainboard integriert (?onboard?), besonders Sound- und Netzwerkkarten sind praktisch ausnahmslos Standard und genügen den Anforderungen vieler Benutzer. Anders als bei Notebooks sind Onboard-Grafikkarten im Desktopbereich eher selten zu finden, obwohl sie für Bürorechner durchaus ausreichende Leistung bieten. Schnellere, spieletaugliche Grafikkarten sind weiterhin nur als Steckkarte zu haben ? seitens der Prozessorhersteller gibt es allerdings die Bemühung, CPU und GPU wieder zu vereinen. Auch bei den Schnittstellen fand im Laufe der Zeit eine Integration auf die Hauptplatine statt. Während früher selbst Standard-Anschlüsse wie die serielle (?RS-232?) und parallele (?LPT?) Schnittstelle nur über Steckkarten realisiert wurden, sind heute alle üblichen Ports schon auf der Hauptplatine vorhanden. Mehrere USB-Buchsen sind fester Bestandteil eines jeden I/O-Shields, ebenso PS/2-Schnittstellen für Maus und Tastatur (teils nur noch als Comboanschluss), die bereits erwähnten Audio- und Netzwerkanschlüsse, und, je nach Ausrichtung des Boards, Video-, eSATA, FireWire und andere Ports. Mitunter müssen selten genutzte Anschlüsse aus Platzgründen auf Slotblenden ausgelagert werden, sodass etwa noch ein Gameport zur Verfügung gestellt werden kann. Die ehemalige Vielfalt von verschiedenen Anschlüssen für externe Komponenten ist heute völlig verschwunden und durch USB ersetzt worden. Für interne Komponenten werden auf dem Mainboard außerdem diverse Serial-ATA-Ports (?SATA?) bereitgestellt, was inzwischen ein Standard für Festplatten und optische Laufwerke ist. ATA/ATAPI (?PATA?)-Schnittstellen sind, wenn überhaupt, nur noch einmal vorhanden, während früher zwei (Primary und Secondary) zum Anschluss von bis zu vier Laufwerken üblich waren. Anschlüsse für Floppy-Laufwerke sind ebenfalls nur noch auf der Hälfte der aktuellen Hauptplatinen überhaupt noch vorhanden. Auch hier übernimmt ein Schnittstellentyp den Anschluss sämtlicher Komponenten, wobei auch die Substitution der Diskette durch USB-Sticks eine Rolle spielt. Bei den Steckplätzen (engl. slots) für Erweiterungskarten verlief die Entwicklung vom XT-Bus über den ISA-Bus, den EISA-Bus, den PCI-Bus zum PCI-Express-Bus (PCIe), der gegenwärtig (2010) im nichtprofessionellen ("consumer") Bereich aktuell ist. Im Serverbereich ist PCI-X noch aktuell, wobei auch hier der Übergang zu PCIe vollzogen wird. Ferner gab es Parallelentwicklungen wie den MCA-Bus und spezielle Steckplätze für Grafikkarten wie den VLB- und den AGP-Slot. Auch diese sind inzwischen vollständig durch PCIe abgelöst. Steckplätze werden heute fast nur noch belegt, wenn in einem Aufgabenbereich besonders hohe Leistung gefragt ist, welche von Onboard-Komponenten nicht geliefert werden kann, oder mit Steckkarten spezielle Funktionen nachgerüstet werden, die von den Onboard-Komponenten nicht abgedeckt werden. All diese Karten besitzen eigene Prozessoren, die den Hauptprozessor des Systems entlasten und auf den jeweiligen Einsatzzweck optimiert sind. Onboard-Komponenten lassen Berechnungen dagegen von der CPU durchführen, weswegen ihre Leistung unter großer Belastung des Rechners einbrechen kann. Neben Grafikkarten sind insbesondere Festplattencontroller gängige Komponenten, die in professionellen Systemen RAID-Funktionalität für bis zu 28 SAS- oder SATA-Festplatten bieten können. Sie sind zudem bei Defekt ohne Datenverlust austauschbar, was bei Onboard-RAID nicht möglich ist, und besitzen eigene XOR-Einheiten für die Paritätsberechnung. Daneben gibt es noch Ein- oder Mehrport-Netzwerkkarten für Kupfer- und Glasfasernetzwerke sowie Soundkarten mit umfangreichen digitalen und analogen Ein- und Ausgängen. Für Controllerkarten für antiquierte Anschlüsse wie etwa RS-232 oder Parallelport genügt die PCI-Schnittstelle vollkommen, während aktuelle USB-3.0-Erweiterungskarten auf die hohe Datenrate von PCI-Express x1 oder höher angewiesen sind. Bauformen Maße von Hauptplatinenstandards Formate Das Format der Hauptplatinen wird nach dem Formfaktor unterschieden. Mit dem IBM PC AT wurde 1984 zunächst das AT-Format eingeführt. Seit 1995 ist das ATX-Format aktuell. Es löste das AT-Format ab und brachte diverse Umstellungen an Gehäusen und Netzteilen mit sich. Es existieren diverse Variationen von ATX und AT, um auch kompaktere Geräte ohne proprietäre Formate bestücken zu können, etwa Baby AT oder µATX. Mini-ITX, Flex-ATX und Micro-ATX passen in ATX-Gehäuse. Steckplätze, Schrauben und das Fenster für I/O-Shield befinden sich an einheitlichen oder derselben Position. Das ATX-Format sollte ab 2003 durch das damit inkompatible BTX-Format abgelöst werden, BTX konnte sich aber nicht durchsetzen und verschwand 2007 vom Markt. Bei BTX sind zu ATX die Steckkarten an der anderen Seite der Hauptplatine angeordnet. Dadurch befindet sich die Hauptplatine an der anderen Seitenwand des Gehäuses. Bei senkrecht eingebauten Hauptplatinen wirkte sich dies auf die Lage der Kühlkörper von Steckkarten aus. AMD hatte Anfang September 2007 das DTX-Format angekündigt, das für sparsame Benutzer gedacht ist, da es kleiner und außerdem zum größten Teil ATX-kompatibel ist. ATX-Hauptplatine mit X58-Chipsatz von ASUS. Es handelt sich um ein P6T Deluxe. AsRock Fatal1ty H97 Killer mit Intel-Sockel LGA 1150 Beispiel einer ATX-Hauptplatine (2010) Externe Anschlüsse, auch Back Panel genannt. Von links: PS2-Kombi-Anschluss für Maus und/oder Tastatur (violett /grün kodiert), darunter 2xUSB; TOSLINK; HDMI-Anschluss; IEEE 1394-Anschluss, darunter 2xUSB; Analoger VGA-Anschluss, darunter DVI; RJ-45-Netzwerkanschluss, darunter 2xUSB; Analoge Ton-Ein/Ausgänge (oft konfigurierbar) ATX-Hauptplatine unter Röntgenstrahlung aufgenommen. Komponenten einer Hauptplatine eines Asus-ATX-Boards aus dem Jahr 2010. Die Nummern beziehen sich auf die Abbildung. Nr. Komponente Beschreibung 1 Prozessorsockel Land Grid Array-Sockel, hier ein Sockel 1366 zur Montage eines Intel Core-i-Prozessors. Es ist kein Prozessor im Sockel und die Schutzkappe ist entfernt. 2 Chipsatz Northbridge, ein Intel X58-Chipsatz (unter dem Kühlkörper). 3 Chipsatz Southbridge, ein Intel ICH10, mittels Heatpipe mit einem Kühlkörper der Northbridge verbunden. 4 RAM-Steckplätze Steckplätze für den Arbeitsspeicher, in diesem Fall für DDR3 5 PCI-Steckplätze Für Erweiterungskarten. 6 PCI-Express- Steckplätze drei PCIe-x16-Slots (lang), sowie ein PCIe-x1-Slot (kurz). Der blaue (hier rechte, in üblicher Einbauanordnung obere) Slot ist für die Grafikkarte reserviert. 7 Jumper Kleine Kurzschlussstecker zur Aktivierung oder Deaktivierung von Einstellungen (Hier: Aufheben von Spannungslimit zum Übertakten). 8 Anschlüsse für Frontblende Mit diesen werden Mainboard und Frontblende des Gehäuses verbunden: Hauptschalter, Power-Anzeige (On/ Standby), Laufwerkaktivitäts-Anzeige. Weiterhin, sofern vorhanden, Resetknopf und der eingebaute Lautsprecher. 9 24-poliger ATX-Connector Die Hauptstromversorgung für die Hauptplatine durch das Netzteil. Bei einigen älteren Boards nur 20-polig, die meisten Netzteile sind aber mit Steckern ausgerüstet, die beide Anschlusstypen unterstützen. 10 8-poliger ATX-Connector Anschluss für die Stromversorgung der CPU. Bei älteren Boards oft nur 4-polig. Oft auch in zwei 4-polige ATX-Connectoren trennbar. 11 Externe Anschlüsse Diese Anschlüsse ragen aus dem Gehäuse heraus und dienen als Anschluss für Peripheriegeräte wie Maus, Tastatur oder USB-Geräte und werden über das I/O Shield an das Gehäuse angepasst. Siehe unteres Bild. 12 Interne USB-Anschlüsse Über diese werden z. B. USB-Anschlüsse an der Vorderseite des Gehäuses oder ein eingebauter Speicherkartenleser mit dem Mainboard verbunden. 13 AAFP-Soundanschluss An diesem Anschluss werden die Sound Ein- und Ausgänge des Frontpanels angeschlossen. 14 Serial-ATA- Anschlüsse Ermöglicht die Verbindung von Festplatten oder optischen Laufwerken mit der Hauptplatine 15 IDE-Anschluss Ermöglicht ebenfalls die Verbindung von Festplatten oder optischen Laufwerken mit dem Mainboard. 16 Floppy-Disk-Stecker Ermöglicht den Anschluss der Diskettenlaufwerke. Softwareseitig wird oft nur noch ein Laufwerk unterstützt. Weitere Bilder typischer Hauptplatinen PC-XT-kompatible Hauptplatine, gefertigt mit Peripherie- und Logik-Bausteinen, wie sie bereits beim IBM PC verwendet wurden AT-Hauptplatine für 80286er CPUs und 16-Bit-ISA-Steckplätzen, Ende der 1980er Jahre 80286er Baby-AT-Hauptplatine von 1988 Hauptplatine mit 80386DX-CPU im AT-Format, Anfang der 1990er Jahre Mainboard vom Dell System 325P mit i386DX im LPX-Format, Steckplätze nur über LPX-Riser-Karte, Baujahr 1990 AT-Hauptplatine für 80486er-CPUs. Sockel-7-AT-Hauptplatine, mit Längsregler für CPU-Spannungen, Baujahr 1996 Super-Sockel-7-ATX-Hauptplatine, mit Abwärtswandler für CPU-Core-Spannung, Baujahr 1998 und 1999 Nur vierlagige ATX-Hauptplatine mit Sockel-462 für AMD-CPUs und SiS735-Chipsatz in einem Chip, Baujahr 2001 Server-Hauptplatine für zwei AMD Opteron-CPUs BTX-Format mit Socket AM2 ATX-Hauptplatine für Sockel 775 (unterstützt Core 2 Duo/Quad), 2008, unterstützt SLI. CPU und RAM sind bereits installiert. ATX ? abgedeckter Socket 1155 ? die Northbridge und meist auch eine GPU sind in dieser Architektur in die CPU integriert, PCI und PCIe 1x und 16x, DDR3-RAM, 2011 Flex-ATX-Board mit CPU und DDR3-RAM (Northbridge und Grafik sind in der CPU) Mini-ITX-Board, CPU und Chipsatz passiv gekühlt 2008 Nano-ITX Board mit abgenommenen Kühlkörpern, S0-RAM-Sockel, CPU aufgelötet 2008 Pico-ITX board mit abgenommenen Kühlkörpern, CPU aufgelötet 2008 Logicboard eines iPhone 5 ohne EMI-Shields, 2012 Liste von Mikrocontrollern Dies ist eine Liste von Mikrocontrollern. Altera Soft-Core-Mikrocontroller für die Integration in FPGAs: 32 Bit Altera Nios Analog Devices 8 Bit Microconverter, 80C52 basierte Mikrocontroller mit hochwertigen Analog Peripherien, ADuM8xx 16/32 Bit Microconverter, ARM 7 basierte Mikrocontroller mit hochwertigen Analog Peripherien, ADuM7xxx DSP / DSC Blackfin Architektur Applied Micro Circuits Corporation (AMCC) 403 PowerPC CPU PPC 403GCX 405 PowerPC CPU PPC 405EP PPC 405GP/CR PPC 405GPr PPC NPe405H/L 440 PowerPC Book-E CPU PPC 440GP PPC 440GX PPC 440EP/EPx/GRx PPC 440SP/SPe X-Gene (ARMv8-64-bit-Core)[1] Atmel Atmel ATmega169 in einem 64-pin MLF-Gehäuse AT89-Serie (MCS-51-Architektur) AT90-, ATtiny-, ATmega-, ATXmega-Serie (AVR-Architektur) AT91-Serie (ARM-Architektur) AT32-Serie (32-Bit AVR32-Architektur) Cypress 8 Bit [PSoC 1] (Programmable System on a Chip): PSoC mit M8C-Core. Mikrocontroller mit USB Function (Device, LowSpeed und FullSpeed) M8A, M8B, EnCoRe, EnCoRe II, EnCoRe III, PSoC [PSoC 3] Mikrocontroller mit USB Function (FullSpeed und HighSpeed) EZ-USBxx mit 8051-Architektur 32 Bit PSoC 5 (Programmable System on a Chip): PSoC mit Cortex M3-Core (32 Bit). Freescale Semiconductor (ehemals Motorola) 8 Bit 68HC05 (CPU05) 68HC08 (CPU08) MC9S08 (HCS08) 68HC11 (CPU11) 16 Bit 68HC12 (CPU12) 68HC16 (CPU16) MC9S12 (HCS12) (HCS12-Core) MC9S12X (HCS12X) HCS12X-Core(CISC) und XGATE Peripheral Co-Processor(RISC) Freescale DSP56800 (Digitaler Signalprozessor) 32 Bit Freescale 683XX (CPU32) MPC500 Kinetis L, ARM Cortex-M0+ K10..K70 ? Kinetis Familie, ARM Cortex-M4 MPC5500 MPC 860 (PowerQUICC) MPC 8240/8250 (PowerQUICC II) MPC 83xx (PowerQUICC II Pro) basierend auf PowerQUICC II, z. T. aber ohne QUICC Engine MPC 8540/8555/8560 (PowerQUICC III) MCF Serie (Coldfire basierend auf Motorola 68000er-Familie) i.MX Prozessoren (ARM-Architektur) Fujitsu Semiconductor Europe 8 Bit MB95xxx Family MB89xxx Family 16 Bit MB90xxx Family MB96xxx Family 32 Bit Embedded 32 Bit RISC Solutions (FR, FM3, FCR4?) HIMA 8 Bit HICore 1 Safety-Chip SIL 3 Hyperstone 32 Bit Hyperstone RISC- Mikroprozessor Infineon (ehemals Siemens AG) 8 Bit Infineon XC800: 8051 kompatible, Flash basierte, neue 8-bit Produktfamilie. Siemens 80C517: Abgekündigt! Siemens 80C535: Abgekündigt! 16 Bit C166 (Kern V1) C167 (Kern V1) XC16x: C166 kompatible, Flash basierte, 16-Bit-Mikrocontroller-Familie (Kern V2). XE166: C166 kompatible, Flash basierte neue Digital Signal Controller Produktfamilie (Kern V2). XC2000: C166 kompatible Flash-basierte, Automobil-qualifizierte neue 16 Bit-Mikrocontroller-Produktfamilie (Kern V2). 32 Bit TLE984x: Relay driver IC with integrated 32-bit ARM® Cortex® M0 TLE9845: Half-Bridge driver IC with integrated 32-bit ARM® Cortex® M0 TLE986x: H-Bridge driver IC with integrated 32-bit ARM® Cortex® M3 TLE987x: 3-phase bridge driver IC with integrated 32-bit ARM® Cortex® M3 TriCore: Flash basierter 32-bit Mikrocontroller mit integrierter DSP Einheit. XMC4000: 32-bit Mikrocontroller Familie mit ARM Cortex?-M4-Prozessor XMC1000: 32-bit Mikrocontroller Familie mit ARM® Cortex?-M0-Prozessor, 32 MHz[2] Intel 8 Bit MCS-48 (Familie der 8048) MCS-51 (Familie der 8051) 8xC251 16 Bit MCS-96 (Familie der 8096) MXS296 32 Bit 80386EX (i386EX) 80960 (i960) Luminary Micro 32 Bit Stellaris (ARM Cortex M3-Architektur) Maxim Integrated Products 16 Bit MAXQ[3] Microchip Technology 8 Bit PIC10-, PIC12-, PIC16-, PIC17- und PIC18-Serien 16 Bit PIC24- und dsPIC-Serien 32 Bit PIC32-Serie NXP Semiconductors (ehemals Philips Semiconductors und Signetics) Mikroprozessor Signetics 2650AN 8 Bit Signetics 2650 MCS-48 (Familie der 8048) MCS-51 (Familie der 8051) 16 Bit / 32 Bit SCC68070 P90CE201 LPC2100-Familie (ARM7) LPC2200-Familie (ARM7) LPC2300-Familie (ARM7) LPC2400-Familie (ARM7) LPC2900-Familie (ARM9) LPC3100-Familie (ARM9) LPC3200-Familie (ARM9) LPC1100-Familie (ARM Cortex M0) LPC1700-Familie (ARM Cortex-M3) Parallax BASIC Stamp Propeller (32-Bit 8-fach-Kern) Renesas Electronics (ehemals Hitachi, Mitsubishi Electric und NEC Electronics) R8C/13 TINY (16 Bit) 8 Bit 78K0S & 78K0 Familie (Für Neudesigns nicht mehr empfohlen, weiterhin lieferbar) 8/16 Bit H8 H8S (abgekündigt) H8SX (abgekündigt) 16 Bit RL78 78K0R Familie (abgekündigt) R8C (Für Neudesigns nicht mehr empfohlen, weiterhin lieferbar) M16C (abgekündigt) 32 Bit V850 Familie SuperH RX M32R R32C M32C (abgekündigt) Samsung 8 Bit CalmRISC Silicon Labs 8 Bit C8051Fxxx Familie[4] C8051Txxx Familie EFM8 Busy Bee[5] EFM8 Sleepy Bee[6] EFM8 Universal Bee[7] 32 Bit EFM32ZG ? Zero Gecko, ARM Cortex-M0+[8] EFM32HG ? Happy Gecko, ARM Cortex-M0+[9] EFM32TG ? Tiny Gecko, ARM Cortex-M3 (ehemals entwickelt von Energy Micro)[10] EFM32G ? Gecko, ARM Cortex-M3 (ehemals entwickelt von Energy Micro)[11] EFM32LG ? Leopard Gecko, ARM Cortex-M3 (ehemals entwickelt von Energy Micro)[12] EFM32GG ? Giant Gecko, ARM Cortex-M3 (ehemals entwickelt von Energy Micro)[13] EFM32WG ? Wonder Gecko, ARM Cortex-M4 (ehemals entwickelt von Energy Micro)[14] STMicroelectronics 8 Bit ST6 ST7 STM8 µPSD 16 Bit ST10 32 Bit STM32 (ARM-Architektur) STR7 STR9 TDK-Micronas 8 Bit HVC 2480A Microcontroller für BLDC- und Schrittmotor Steuerung (C8051) 16 Bit CDC16xy Family Car Dashboard Microcontroller (65C816, 65C02) 32 Bit CDC3207G Car Dashboard Microcontroller (ARM7TDMI) HVC 4223F Microcontroller für BLDC- und Schrittmotor Steuerung (ARM Cortex M3) Texas Instruments 16 Bit MSP430 32 Bit TMS470 (ARM7) TMS570 (ARM Cortex R4) TMS320C2000 (DSP-basiert) TMS320C5000 (DSP-basiert) TMS320C6000 (DSP-basiert) LM3S (ARM Cortex M3) TM4C (ARM Cortex M4) Toshiba 870 TX19/A /900 (16/32bit) TX49 (32/64bit) Western Design Center 16 Bit W65C265S Xilinx Soft-Core-Mikrocontroller für die Integration in FPGAs: 8 Bit PicoBlaze 32 Bit MicroBlaze Liste von Mikroprozessoren Dies ist eine Liste von Mikroprozessoren. Mikroprozessoren von AMD und Intel sowie Mikrocontroller sind in getrennten Listen zu finden. AMD Siehe Liste der Mikroprozessoren von AMD. Analog Devices Blackfin SHARC ? 32-Bit-Fixed-und-Floating-Point-DSP (Signalprozessor) ARM Ltd. Acorn RISC Machine oder ARM ARM1-Architektur v1 ARM2, ARM3-Architektur v2 ARM6, ARM7, Amulet-ARM-Architektur v3 ARM8, ARM9, StrongARM-ARM-Architektur v4 ARM10, VFP10-ARM-Architektur v5 und VFP v1 ARM Cortex-M Centaur Technology Gehörte zuerst zu Integrated Device Technology und jetzt zu VIA Technologies. IDT WinChip C6 IDT WinChip 2/A/B IDT WinChip 3 VIA Cyrix III (Samuel) VIA C3(-M)/Antaur (Samuel 2, Ezra(-T), Nehemiah(+)) VIA C7(-M)/(-D) (Esther) VIA Eden VIA Nano Chips & Technologies 38600SX 38605SX 38600DX 38605DX Cyrix Gehörte zuerst zu National Semiconductor und jetzt zu VIA Technologies, die Geode- bzw. MediaGX-Sparte zu AMD. MediaGX Cx486-Familie: Cx486SLC Cx486SRx² Cx486DLC Cx486DRx² Cx486S Cx486DX Cx486DX2 Cx486DX4 Cyrix 5x86 6x86(-L) 6x86MX MII Cyrix III (Joshua) Digital Equipment Corporation Gehörte zuerst zu Compaq und heute zu Hewlett-Packard. T-11 Alpha-Prozessor MicroVAX Fairchild F8 Clipper Fujitsu SPARC64 V Hewlett-Packard Focus-32-Bit-Stack-CPU, für technische Workstations Saturn-Nibble-CPU, für HP-Taschenrechner PA-RISC-Familie ? Version 1.x, 32 Bit, für Workstations und Server PA-7000 ? PA-RISC, Version 1.0 PA-7100 ? PA-RISC, Version 1.1, mit (SIMD) PA-7100LC ? Low-Cost-Version für Entrylevel-Systeme PA-7150 PA-7200 PA-7300 PA-7300LC ? Low-Cost Version, kein SMP, opt. ext. Cache PA-RISC-Familie ? Version 2.0, 64-Bit, für Workstations und Server PA-8000 ? PA-RISC, Version 2.0 PA-8200 PA-8500 PA-8600 PA-8700 PA-8800 ? Dual Core, 32 MB Cache PA-8900 ? Dual Core, 64 MB Cache, vermutlich letzte PA-RISC-CPU IBM IBM CG80286 386SLC IBM 486SLC/DLC/BLX IBM Blue Lightning IBM Power IBM PowerPC (unter Beteiligung von Apple und Motorola) ? 600, 603, G3 (750), G5 (970) Cell Intel Siehe Liste der Mikroprozessoren von Intel. MOS Technology 6502-Familie Motorola Heute aus dem Konzern ausgegliedert, neuer Firmenname: Freescale. 6800 6809 (z. B. beim Dragon 32, Dragon 64) 68000er-Familie (z. B. im Amiga, Apple Macintosh, Atari ST, Sinclair QL) Motorola 68000 Motorola 68008 Motorola 68010 Motorola 68012 Motorola 68020 Motorola 68030 Motorola 68040 Motorola 68060 Motorola CPU32 Motorola Coldfire Motorola Dragonball Motorola 88000 Motorola PowerPC (unter Beteiligung von Apple und IBM) ? 600, 603, G3 (750), G4 (7400/7450) MIPS MIPS (z. B. Silicon Graphics) R3000 R4*00 R5000 R8000 R1*000 National Semiconductor IMP-16 NSC800 SC/MP NS320xx NEC µPD751 (4-Bit-CPU, 12-Bit-Adressbus) µPD780C (entspricht dem Zilog Z80) V20 (entspricht dem Intel 8088) V30 (entspricht dem Intel 8086) NexGen Nx586 Nx686 Patriot Scientific Corp. IGNITE I IGNITE II INFLAME I Raza Microelectronics Alchemy Orion Pegasus XL XLR Rise Technology Design teilweise von SiS und Texas Instruments lizenziert, kommt ebenfalls im Vortex86 zum Einsatz. mP6 mP6-II Tiger S370 Signetics 2650 STMicroelectronics ST6 (8-bit-µC) ST7 (8-bit-µC) µPSD (8-bit-µC) ST10 (16-bit-µC) ST20 (32-bit-µC) STR7 (32-bit-ARM-µC) STR9 (32-bit-ARM-µC) ST486 ? nicht (mehr?) bei STM erhältlich ST5x86 ? OEM Cyrix 5x86, (486, mit 100?150 MHz), nicht (mehr?) bei STM erhältlich ST6x86 ? OEM Cyrix 6x86 M1, nicht (mehr?) bei STM erhältlich Sun Microsystems microSPARC 32-Bit V8 superSPARC turboSPARC hyperSPARC UltraSPARC 64-Bit V9 UltraSPARCII UltraSPARCIII UltraSPARCIV UltraSPARCIV+ UltraSPARC T1 UltraSPARC T2 UltraSPARC T2+ Texas Instruments MSP430 (3xx, 1xx, 4xx, 2xx, 5xx) C2000 (DSP-Familie: Controller/Fokus auf Energiesparen) C5000 (DSP-Familie: Kompromiss zwischen Energiesparen und Leistung) C6000 (C62xx, C64xx-DSP-Familie: Leistung) TMS1000 (TMS1000, TMS1070, TMS1100, TMS1200, TMS1270, TMS1300) Texas Instruments TMS9900 Transmeta Crusoe (TM5900, TM5800, TM5700, TM5600, TM5500, TM5400) Efficeon (TM8800, TM8600) UMC UMC Green CPU Western Digital MCP-1600 Zilog Z80 ? Weiterentwicklung des i8080 (z. B. im Sinclair ZX81, Sinclair ZX Spectrum, Schneider/Amstrad CPC, Tandy TRS 80) Z8000 ? 16-Bit-Mikroprozessor, nicht Z80-kompatibel Z80000 ? 32-Bit-Mikroprozessor, Erweiterung der Z8000-Familie Z8 ? 8-Bit-Mikrocontroller, nicht Z80-kompatibel Prozessoren aus der DDR (Hersteller: MME) U808 ? erster 8-Bit-Prozessor der DDR, Nachbau des Intel 8008, PMOS U880 ? Zilog-Z80-Nachbau U88x (mit x = 1,2,3,4,6) ? Z8-Nachbau, ?Einchipmikrorechner? U8047 ? 4-Bit-Einchipmikrorechner in CMOS-Technik U8001 / U8002 ? Z8000-Nachbau U80601 ? Intel-80286-Nachbau U80701 ? MicroVAX-II-Nachbau, erster 32-Bit-Prozessor der DDR U84C00 ? CMOS-Variante des U880 U8032 ? 16-Bit-Arithmetikprozessor in NMOS-Technologie (nSGT), kaskadierbar bis 64 Bit, Eigenentwicklung des ZMD U830C ? 8-Bit-Mikroprozessor in NMOS-Technologie (nSGT), kaskadierbar bis 32 Bit, Eigenentwicklung des ZMD U320C20 ? 16-Bit-DSP, CMOS-Variante des Texas Instruments TMS32020 Prozessoren aus der Sowjetunion Die Nomenklatur sowjetischer integrierter Schaltkreise verwendet das kyrillische Alphabet. Dabei sorgt für zusätzliche Verwirrung, dass sich die Transkription vom kyrillischen in das lateinische Alphabet im Deutschen von der im Englischen unterscheidet. So wird aus dem russischen ??580??80? im Deutschen KR580WM80A und im Englischen KR580VM80A. Im Folgenden wird die deutsche Bezeichnung angegeben. Serie 580 (entspricht Intel 8080) - KR580WM80A Serie 1810 (entspricht Intel 8086) - K1810WM86, K1810WM87, KM1810WM88 Serie 1858 (entspricht Zilog Z80) - KR1858WM1 Sonstige Apollo PRISM ? sehr frühe RISC-CPU Axis Communications ETRAX CRIS Elbrus 2000 ? russische Mikroprozessor-Familie Hitachi SuperH Hyperstone RCA COSMAC 1802 von Siemens gefertigte Nachbauten des 80186 und 80286 Chinesische Akademie der Wissenschaften Loongson 2F Mikroprozessor Ein Mikroprozessor (von griechisch ?????? mikrós, deutsch ?klein, eng?) ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip (integrierter Schaltkreis, IC) vereinigt sind. Der erste Mikroprozessor wurde Anfang der 1970er Jahre von der Firma Texas Instruments auf der Basis der IC-Technik entwickelt. Im Zuge fortschreitender Miniaturisierung war es möglich, neben dem Mikroprozessor auch zusätzliche Peripherie auf dem Chip zu implementieren. Damit war der Mikrocontroller bzw. das System-on-a-Chip (SoC) geboren. Entwicklung der Transistoranzahl bei Mikroprozessoren Prozessortyp Transistor anzahl Jahr Hersteller KL TI TMS1100.jpg TMS1000 8.000 1971 Texas Instruments C4004 two lines.jpg Intel 4004 2.300 1971 Intel KL Intel C8008-1.jpg Intel 8008 3.500 1972 Intel KL Intel C8080.jpg Intel 8080 4.500 1974 Intel KL MOS 6502.jpg 6502 5.000 1975 MOS Technology KL TI TMS9900 Black Background.jpg TMS9900 8.000 1976 Texas Instruments Zilog Z8400APS.jpg Z80 8.500 1976 Zilog KL Intel D8086.jpg Intel 8086 29.000 1978 Intel KL Intel TD8088.jpg Intel 8088 29.000 1979 Intel KL Hitachi HD68000.jpg Motorola 68000 68.000 1979 Motorola KL Intel 80286 CLCC Top.jpg Intel 80286 134.000 1982 Intel KL Intel i386DX.jpg Intel 80386 275.000 1985 Intel Intel 80486DX-33.jpg Intel 80486 1.200.000 1989 Intel KL Intel Pentium A80501.jpg Pentium 3.100.000 1993 Intel KL Motorola MC68060.jpg Motorola 68060 2.500.000 1994 Motorola AMD K5 PR100.jpg AMD K5 4.300.000 1996 AMD Intel Pentium II 350 MHz.jpg Pentium II 7.500.000 1997 Intel KL AMD K6 LittleFoot.jpg AMD K6 8.800.000 1997 AMD KL Intel Pentium III Coppermine.jpg Pentium III 9.500.000 1999 Intel AMD K6 3.jpg AMD K6-III 21.300.000 1999 AMD Slot-A Athlon.jpg AMD K7 22.000.000 1999 AMD KL Intel Pentium 4 Wilamette.jpg Pentium 4 42.000.000 2000 Intel KL Intel Itanium ES.jpg Itanium 25.000.000 2001 Intel Athlon XP 3200 a.jpg Barton 54.300.000 2003 AMD Pentium M Dothan.jpg Intel Pentium M 77.000.000 2003 Intel Athlon-64-Lenara-CG.jpg AMD K8 105.900.000 2003 AMD KL Intel Itanium2.jpg Itanium 2 220.000.000 2003 Intel Itanium 2 (mit 9 MB Cache) 592.000.000 2004 Intel Cell 241.000.000 2006 Sony/IBM/Toshiba Intel core2 duo 4300 IMGP5033.jpg Core 2 Duo 291.000.000 2006 Intel Core 2 Q6600 G0.JPG Core 2 Quad 582.000.000 2006 Intel Dual-Core Itanium 2 1.700.000.000 2006 Intel Power6 789.000.000 2007 IBM Intel core i7 940 top R7309478 wp.jpg Core i7 731.000.000 2008 Intel AMD K10 758.000.000 2009 AMD Intel CPU Core i7 2600K Sandy Bridge top.jpg Intel Core i7 2600K 995.000.000 2010 Intel AMD FX 8350 Prozessor.jpg AMD Bulldozer 1.200.000.000 2011 AMD Intel Core i7 3930K 2.270.000.000 2011 Intel Intel Core i7 4770K 1.400.000.000 2013 Intel AMD Kaveri 2.410.000.000 2014 AMD E5-2699 v3 5.570.000.000 2014 Intel E7-8890 v4 7.200.000.000 2016 Intel Siehe auch: Prozessor#Historische Entwicklung In den frühen 1960ern wurden die aus Röhren bestehenden Prozessoren durch transistorierte Typen verdrängt. Anfangs wurden die Prozessoren diskret aus einzelnen Röhren aufgebaut. Ein solcher Prozessor hatte das Volumen eines Wandschrankes, die Leistungsaufnahme lag bei einigen tausend Watt, die Taktfrequenz bei 100 kHz. Der technologische Sprung von der Röhren- zur Transistortechnik hatte einen geringeren Platzbedarf, eine geringere Temperaturentwicklung, eine höhere Verarbeitungsgeschwindigkeit, eine niedrigere Ausfallquote sowie einen geringeren Stromverbrauch von nur einigen 100 Watt zur Folge. Die Taktfrequenz stieg auf etwa 1 MHz. Durch die spätere Verkleinerung der Transistoren auf nur einige Mikrometer war es möglich, immer mehr Transistorfunktionen auf integrierten Schaltungen (ICs) unterzubringen. Waren es zunächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich sogar Registerbänke und Rechenwerke auf einem Chip. Diese zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip führte dann fast zwangsläufig zu dem, was heute als Mikroprozessor bekannt ist. Patentiert wurde der Mikroprozessor von Mitarbeitern der Firma Texas Instruments (TI), die 1971 den TMS1000 genannten Schaltkreis vorstellten. Er enthielt neben einem Hauptprozessor ein 1 KiB großes ROM, ein 64×4-Bit-RAM und weitere Funktionen wie Zähler und Timer sowie Schnittstellen für Eingabe und Ausgabe. Diese wurden damals üblicherweise in einzelnen Schaltkreisen umgesetzt und der TMS1000 entspricht daher einem Mikrocontroller. Im selben Jahr wie TI präsentierte Intel mit dem 4004 den ?Mikroprozessor? (englisch microprocessor unit, MPU), der als erster Hauptprozessor (CPU) auf einem Chip angesehen wird, da TI den TMS1000 erst ab 1974 als eigenständiges Produkt vermarktete. Mit nur 4 Bit breiten Registern und einer Taktfrequenz von bis zu 740 kHz war der 4004 nicht sehr leistungsfähig. Seine im Vergleich mit den klassischen CPUs äußerst kompakte Bauform verhalf dem Mikroprozessor aber schließlich trotzdem zum Durchbruch. Ursprünglich war der 4004 eine Auftragsentwicklung für den japanischen Tischrechnerhersteller Busicom. 1969 hatte Intels Ted Hoff, Leiter der Abteilung Application Research, die Idee, das Herz dieses Tischrechners in Form eines programmierbaren Bausteins zu realisieren. 1970 entwickelte Federico Faggin, in der Abteilung für Untersuchungen an der Metall-Isolator-Halbleiter-Struktur, eine Schaltkreisintegration auf Grundlage von Transistoren mit einer Gate-Elektrode aus Silizium für die Umsetzung des 4004 und führte das Projekt zu seinem erfolgreichen Debüt auf dem Markt im Jahr 1971. Dass daraus die erste universell einsetzbare Einchip-CPU der Welt resultierte, war eigentlich nicht beabsichtigt. Da Busicom damals in finanziellen Schwierigkeiten steckte, bot man Intel den Rückkauf des 4004-Designs an, woraufhin Intel mit der Vermarktung des 4004 begann. Der 4004 wurde zum ersten kommerziellen Mikroprozessor der Welt. Eine weitere bemerkenswerte Entwicklung wurde erst 1998 nach der Freigabe militärischer Unterlagen bekannt. Demnach hat Garrett AiResearch (u. a. mit den Mitarbeitern Steve Geller und Ray Holt) bereits zwischen 1968 und 1970 einen Chipsatz (aus mehreren ICs bestehendes System, incl. CPU) für militärische Zwecke entwickelt.[1][2][3][4] Der als MP944 bezeichnete Chipsatz war Bestandteil des Central Air Data Computer (CADC), dem Flugkontrollsystem der neuen F-14 Tomcat (US Navy). Zunächst waren das noch recht einfache Schaltungen. Die Mikroelektronik brachte neben der Miniaturisierung und der Kostenersparnis noch weitere Vorteile wie Geschwindigkeit, geringen Stromverbrauch, Zuverlässigkeit und später auch höhere Komplexität. Das führte dazu, dass vergleichsweise billige Mikroprozessoren mit der Zeit die teuren Prozessoren der Minicomputer und teilweise sogar die Großrechner verdrängten. Gegen Ende des 20. Jahrhunderts hielt der Mikroprozessor Einzug in viele elektronische Geräte, vor allem als CPU von Personal-Computern (PCs). Auch als die Strukturgröße der Mikroprozessorchips auf einige Nanometer weiter verkleinert wurde (14 nm, Stand Januar 2015, Intel Broadwell-Architektur), blieb der Begriff Mikroprozessor bestehen. Die Wortbreite war wegen der noch nicht so hohen Integrationsdichte zunächst auf 4 Bit beschränkt. In der Folge wurde die Wortbreite kontinuierlich gesteigert, meistens in Verdopplungsschritten. Da die Ressourcen zu Anfang noch so teuer waren, suchte man nach Wegen, sie optimal an die jeweiligen Erfordernisse anzupassen. Eine Episode auf dem Weg dazu waren Bit-Slice-Systeme, bei denen man mehrere Bit-Slice-Prozessoren geringer Bitbreite zu einem System der gewünschten, größeren Bitbreite zusammenschalten konnte. Zur Realisierung eines kompletten Computers muss der Mikroprozessor noch um Speicher und Ein-/Ausgabe-Funktionen erweitert werden. Diese stehen in Form weiterer Chips zur Verfügung. Nur wenige Jahre nach der Einführung von Mikroprozessoren etablierte sich auch der Begriff des Mikrocontrollers, der diese Funktionen auf einem Chip vereint. Je nach Wortbreite, Befehlstypus (CISC / RISC) oder einfach Hersteller unterteilen sich die Prozessoren in verschiedene Prozessorarchitekturen. Beachtenswerte 8-Bit-Prozessoren Der 4004 wurde 1972 durch den 8008 abgelöst, den ersten 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer des äußerst erfolgreichen Intel 8080 (1974) und weiterer 8-Bit-Prozessoren von Intel. Der konkurrierende Motorola 6800 war ab August 1974 erhältlich, im selben Jahr wie der 8080. Die Architektur des 6800 wurde 1975 für den MOS Technology 6502 kopiert und verbessert, der in den 1980er Jahren in der Popularität mit dem Z80 wetteiferte. Das Entwicklerteam des 8080 gründete die Firma Zilog und brachte 1976 den Z80 heraus, eine stark verbesserte und Code-kompatible Weiterentwicklung. Dieser erlangte die größte Popularität aller 8-Bit-Prozessoren. Details siehe Zilog Z80. Sowohl der Z80 als auch der 6502 wurden im Hinblick auf niedrige Gesamtkosten entwickelt. Das Gehäuse war klein, die Ansprüche an den Bus gering und es wurden Schaltungen eingebunden, die bisher in einem separaten Chip zur Verfügung gestellt werden mussten (der Z80 verfügte z. B. über einen eigenen Refresh-Generator für dynamische RAM-Speicher DRAM). Diese Eigenschaften waren es schließlich, die dem Heimcomputermarkt zu Beginn der 1980er Jahre zum Durchbruch verhalfen und in Maschinen resultierten, die für 99 Dollar erhältlich waren. Der SC/MP wurde von der Firma National Semiconductor Corporation aus Santa Clara Mitte der 1970er Jahre vertrieben. Verschiedene Einplatinencomputer wurden als Selbstbau- und Lehrcomputer auf Basis des SC/MP bis etwa 1980 realisiert. Western Design Center (WDC) stellte 1982 den CMOS 65C02 vor und lizenzierte das Design an verschiedene Firmen. Dieser Prozessor wurde das Herz des Apple IIc und IIe und wurde in Herzschrittmachern und Defibrillatoren, Autos sowie in industriellen Geräten und auf dem Verbrauchermarkt eingesetzt. WDC bereitete so den Weg vor für das Lizenzieren von Mikroprozessor-Technologie; dieses Geschäftsmodell wurde später von ARM und anderen Herstellern in den 1990er Jahren übernommen. Motorola übertrumpfte 1978 die gesamte 8-Bit-Welt mit der Vorstellung des Motorola 6809, eine der leistungsstärksten und saubersten 8-Bit-Architekturen und auch eine der komplexesten Mikroprozessor-Logiken, die je produziert wurden. Mikroprogrammierung ersetzte zu dieser Zeit die bisher festverdrahteten Logiken ? gerade weil die Anforderungen der Designs für eine feste Verdrahtung zu komplex wurden. Ein weiterer 8-Bit-Mikroprozessor war der Signetics 2650, der aufgrund seiner innovativen und leistungsfähigen Befehlssatz-Architektur kurzzeitig im Zentrum des allgemeinen Interesses stand. Ein für die Raumfahrt wegweisender Mikroprozessor war der RCA1802 (alias CDP1802, RCA COSMAC; vorgestellt 1976), der in den Voyager-, Viking- und Galileo-Raumsonden eingesetzt wurde. Der CDP1802 wurde verwendet, weil er mit sehr wenig Energie betrieben werden konnte und seine Bauart (Silicon-on-Sapphire) einen wesentlich höheren Schutz gegenüber kosmischer Strahlung und elektrostatischen Entladungen bot als jeder andere Prozessor zu dieser Zeit. Der CP1802 wurde als erster strahlungsgehärteter (radiation-hardened) Prozessor bezeichnet. 16-Bit-Prozessoren Der erste Mehrfach-Chip-16-Bit-Mikroprozessor war der IMP-16 von National Semiconductor, vorgestellt 1973. Eine 8-Bit-Version folgte ein Jahr später als IMP-8. 1975 stellte National Semiconductor den ersten Ein-Chip-16-Bit-Mikroprozessor PACE vor, dem später eine NMOS-Version folgte (INS8900). Andere Mehrfach-Chip-16-Bit-Mikroprozessoren waren der TMS 9900 von TI, der auch mit der hauseigenen TI-990-Minicomputermodellreihe kompatibel war. Der Chip besaß ein großes 64-Pin-DIP-Gehäuse, während die meisten 8-Bit-Prozessoren in das weiter verbreitete, kleinere und billigere 40-Pin-DIP-Gehäuse aus Kunststoff eingesetzt wurden. Ein Nachfolger wurde aus dem 9900 entwickelt, der TMS 9980, der ebenfalls ein billigeres Gehäuse besaß. Er sollte ein Konkurrent zum Intel 8080 werden. Der TMS 9980 konnte 8 Datenbits zur gleichen Zeit kopieren, aber nur 16 KiB adressieren. Ein dritter Chip, der TMS 9995, wurde neu entwickelt. Diese Prozessorfamilie wurde später mit dem 99105 und 99110 erweitert. WDC machte seinen 65C02 16-Bit-tauglich und stellte diesen Prozessor 1984 als CMOS 65816 vor. Der 65816 stellte den Kern des Apple IIgs und später des Super Nintendo dar, was ihn zu einem der beliebtesten 16-Bit-Designs machte. Intel verfolgte die Strategie, keine Minicomputer zu emulieren, und ?vergrößerte? stattdessen sein 8080-Design auf 16 Bit. Daraus entstand der Intel 8086, das erste Mitglied der x86-Familie, die heute in den meisten PCs zu finden ist. Der 8086 und sein ?kleiner Bruder?, der 8088 boten die Möglichkeit, Software von der 8080-Linie zu portieren, womit Intel gute Geschäfte machte. Nachfolger des 8086 wurde der 80186, der 80286 und 1985 der 32-Bit-Prozessor 80386, die alle rückwärtskompatibel waren und so die Marktvorherrschaft von Intel entscheidend stärkten. 32-Bit-Prozessoren Der erste 32-Bit-Mikroprozessor in einem eigenen Gehäuse war der BELLMAC-32A von AT&T Bell Labs, von dem erste Stücke 1980 erhältlich waren, und der 1982 in Masse produziert wurde. Nach der Zerschlagung von AT&T 1984 wurde er in WE 32000 umbenannt (WE für Western Electric) und hatte zwei Nachfolger: Den WE 32100 und WE 32200. Diese Mikroprozessoren wurden in den folgenden Minicomputern von AT&T eingesetzt: 3B2, 3B5, 3B15, ?Companion? und ?Alexander?. Einer der bemerkenswertesten 32-Bit-Mikroprozessoren ist der MC68000 von Motorola, der 1979 vorgestellt wurde. Er wurde häufig auch als 68K bezeichnet und verfügte über 32-Bit-Register, verwendete aber 16 Bit breite interne Busleitungen und einen ebenso breiten externen Datenbus, um die Anzahl benötigter Pins zu verringern. Motorola bezeichnete diesen Prozessor im Allgemeinen als 16-Bit-Prozessor, obwohl er intern über eine 32-Bit-Architektur verfügte. Die Kombination aus einem schnellen und großen Speicheradressraum (16 Megabyte) und geringen Kosten machten ihn zum beliebtesten Prozessor seiner Klasse. Der Apple Lisa und die Macintosh-Reihe verwendeten den 68K; Mitte der 1980er Jahre wurde dieser Prozessor auch im Atari ST und Commodore Amiga eingesetzt. Intels erster 32-Bit-Mikroprozessor war der 1981 vorgestellte iAPX 432. Obwohl er über eine fortgeschrittene, objektorientierte Architektur verfügte, war ihm kein kommerzieller Erfolg beschieden ? nicht zuletzt weil er in der Leistung gegenüber konkurrierenden Architekturen schlechter abschnitt. Motorolas Erfolg mit dem 68K führte zur Vorstellung des MC68010, der die Technik der virtuellen Speicheradressierung unterstützte. Der MC68020 schließlich verfügte über 32 Bit breite interne und externe Busse. Dieser Prozessor wurde im Unix-Supermicrocomputer äußerst beliebt, und viele kleinere Firmen stellten Desktop-Systeme mit diesem Prozessor her. Der MC68030 integrierte die MMU in den Chip. Die meisten Computer, die nicht auf DOS liefen, setzten nun einen Chip der 68K-Familie ein. Dieser anhaltende Erfolg führte zum MC68040, der auch die FPU in den Chip integrierte und so die Geschwindigkeit arithmetischer Operationen erhöhte. Ein geplanter MC68050 erreichte nicht die erwünschten Verbesserungen und wurde nicht produziert, der MC68060 wurde auf ein Marktsegment geworfen, das bereits mit viel schnelleren RISC-Designs gesättigt war. Der 68020 und seine Nachfolger wurden häufig in eingebetteten Systemen eingesetzt. Während dieser Zeit (Anfang bis Mitte 1980) stellte National Semiconductor ähnlich wie Motorola einen 32-Bit-Prozessor mit einem 16-Bit-Pinout her, den NS 16032 (später umbenannt zu NS 32016). Die Version mit einem ebenfalls 32 Bit breiten Bus war der NS 32032. Sequent stellte basierend auf diesem Mikroprozessor Mitte der 1980er Jahre den ersten SMP-Computer vor. Andere Systeme setzten den Zilog Z80000 ein, der aber zu spät im Markt ankam und bald wieder verschwand. 64-Bit-Prozessoren auf dem Desktop Während 64-Bit-Prozessoren in verschiedenen Märkten schon seit den frühen 1990er Jahren im Einsatz waren, wurden sie erst nach 2000 auch auf dem PC-Markt eingesetzt. Im Juli 2003 stellte Apple auf der Entwicklerkonferenz (WWDC) den Power Mac G5 vor, Apples ersten 64-Bit-Desktop-Computer. Vorher hatte es bereits von Sun und anderen Herstellern 64-Bit-Rechner gegeben, die allerdings üblicherweise als Workstations und nicht als Desktop-Rechner bezeichnet werden, auch wenn kein technisches Merkmal diese Unterscheidung rechtfertigt. Etwa gleichzeitig, mit AMDs Einführung der ersten 64-Bit-Architektur AMD64 (zu IA-32 rückwärtskompatibel) im September 2003, begann die Ära der 64-Bit-Architekturen auch bei x86-Rechnern. AMD wurde bald gefolgt von Intel, die schon zuvor IA-64-CPUs herstellten (Intel Itanium), die aufgrund der fehlenden Abwärtskompatibilität am Consumer-Markt aber scheiterten. Nun wendete sich Intel der AMD64-Architektur zu und produziert seit dem Intel Pentium 4 Kern Prescott 2M (Release: Februar 2005) eigene zu AMD64 kompatible x86/Intel64-Prozessoren. Beide x86-Prozessoren können die bisherige 32-Bit-Software wie auch die neue 64-Bit-Software ausführen. Mit 64-Bit-Windows XP und -Linux bewegt sich die Software nun auf die neue Architektur hin und nutzt das volle Potenzial dieser Prozessoren. Seit der Veröffentlichung von Windows 7 werden die meisten OEM-Computer mit einer 64-Bit-Version veröffentlicht, gerade auch da um 2010 die magische 4-GB-RAM-Grenze der 32-Bit-Systeme bei handelsüblichen Computern erreicht war. Speziell bei IA-32 ist der Wechsel zu 64-Bit mehr als nur die Erhöhung der Registerbreite, da auch die Anzahl der Register erhöht wurde. Bei den PowerPC-Architekturen wurde der Wechsel auf 64-Bit schon in den frühen 1990er Jahren vorgenommen (tatsächlich ist der PPC-Prozessor von vornherein als 64-Bit konzipiert, mit einer 32-Bit-Teilmenge der Befehle). Die Registergrößen und internen Busse werden vergrößert, die arithmetischen und vektoriellen Recheneinheiten arbeiteten bereits vor dem Wechsel seit mehreren Jahren mit 64 oder mehr Bits (das ist auch bei IA-32 der Fall). Es werden aber keine neuen Register eingefügt, dadurch ist die gewonnene Geschwindigkeit von 64 gegenüber 32-Bit geringer als bei IA-32. RISC-Prozessoren Intel-i860-RISC-Mikroprozessor Mitte der 1980er bis in die frühen 1990er Jahre erschienen viele RISC-Mikroprozessoren (englisch Reduced Instruction Set Computing), die anfänglich in spezialisierten Computern und UNIX-Workstations eingesetzt wurden, seither aber universell in den verschiedensten Aufgabengebieten genutzt werden; Intel-Standard-Desktop-Computer sind heute RISC-CISC-Mischformen. Die erste kommerzielle Architektur stammte von MIPS Technologies, der R2000 (der R1000 wurde nicht verkauft). Der R3000 machte die Architektur erst richtig praktisch, der R4000 schließlich stellte die erste 64-Bit-Architektur der Welt dar. Konkurrierende Projekte brachten die IBM-Power- und Sun-SPARC-Systeme hervor. Bald hatte jeder größere Hersteller ein RISC-Design im Angebot, z. B. den AT&T CRISP, AMD Am29000, Intel i860 und Intel i960, Motorola 88000, DEC Alpha und den HP PA-RISC. Der Wettbewerb ließ bald die meisten dieser Architekturen verschwinden, wobei IBMs POWER und der davon abgeleitete PowerPC (als die Desktop-RISC-Architektur) und Sun SPARC (nur in Suns eigenen Systemen) blieben. MIPS bietet weiterhin SGI-Systeme an, die Architektur wird aber meist als eingebettetes Design verwendet, z. B. in den Routern von Cisco. Andere Firmen konzentrieren sich auf Nischenmärkte, allen voran ARM Limited, welche 1989 aus Acorn ausgegliedert wurde. Acorn war ein Hersteller von RISC-Computern, der mit den auf der ARM-Architektur basierenden Modellserien Acorn Archimedes und Acorn Risc PC als einer der ersten auch auf den Heimcomputermarkt abzielte. ARM konzentriert sich jetzt aber auf Prozessoren (siehe auch ARM-Architektur) für eingebettete Systeme. Design und Fertigung Siehe auch: Herstellung von integrierten und mikroelektronischen Schaltkreisen Ein Mikroprozessor ist ein Prozessor, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind. Die Mikroprozessoren werden aufgrund ihrer unterschiedlichen Anwendungsbereiche an den jeweiligen Einsatzbereich angepasst. Beispielsweise müssen Spezialversionen für Luft- und Raumfahrt besonders hohen Temperaturen und Strahlungposition im laufenden Betrieb fehlerfrei standhalten, während Mobilprozessoren eine hohe IPC-Rate, geringe Leckströme und einen niedrigen Energieverbrauch aufweisen müssen. Diesen Bedürfnissen wird auf verschiedene Arten und Weisen Rechnung getragen: So wird bereits mit der Auswahl des Befehlssatzes (CISC oder RISC) eine fundamentale Entwurfsentscheidung getroffen, deren Implikationen in den jeweiligen Spezialartikeln näher erläutert werden. Anschließend wird ein möglichst effizienter Mikrocode entwickelt, der optimal an Randbedingungen wie Cachegrößen, Speicherbandbreite und -latenzen sowie die internen Funktionseinheiten angepasst wird. Der in einer Hardwarebeschreibungssprache vorliegende logische Entwurf des Mikroprozessors wird sodann an einen Hochleistungscomputer übergeben, der die Leiterbahnen "routet", d. h., eine optimale Anordnung mit möglichst wenig Transistoren sowie minimaler Verlustleistung zu ermitteln sucht (sogenannte Technology Binding oder Technology Mapping). Da diese Routingprobleme NP-vollständig sind, werden meist nur Näherungslösungen gefunden, die sich im Detail noch erheblich verbessern lassen. Aus diesen Bahnberechnungen werden Masken erstellt, die mittels Fotolithografie zur Belichtung von Wafern eingesetzt werden, die anschließend geätzt werden. Die Fertigung eines heutigen Mikroprozessors umfasst weit über 100 Einzelschritte, in deren Verlauf bereits ein einziger Fehler den gesamten Prozessor unbrauchbar machen kann. In der Endkontrolle werden die Prozessoren schließlich hinsichtlich ihrer Taktfestigkeit klassifiziert, wobei anhand eines für jeden Prozessortyp individuell entwickelten Testprogramms physikalische Eigenschaften wie Signalpegel bei verschiedenen Takten überprüft werden. Hierbei wird besonders auf laufzeitkritische Signalwege auf dem CPU-Die geachtet, um Speed Paths (Fehler durch Signalverzögerungen) zu verhindern. Allgemein lässt sich feststellen, dass der Validierungsaufwand moderner Prozessoren gewaltige Ausmaße angenommen hat, und trotz aller Anstrengungen nicht alle Fehlersituationen vor der Auslieferung überprüft werden können. Der letzte in allen Funktionen (und Fehlern!) vollständig verifizierte x86-Prozessor war der 80286. Daher liefern alle Hersteller sogenannte Errata-Listen, in denen entdeckte Fehler verzeichnet werden. So musste beispielsweise Intel den berühmt-berüchtigten FDIV-Bug in frühen Pentium-CPUs eingestehen, der auf mehrere fehlende Einträge in einer internen Lookup-Tabelle der FPU zurückzuführen ist. Im Laufe der Zeit vergrößerte sich aufgrund der immer besser werdenden Technik die Anzahl der vom Prozessor unterstützten Befehle. Heute finden sich überwiegend 32- und 64-Bit-Prozessoren, wobei die gängigsten Betriebssysteme für den Anwender maximal 64, meist aber nur 32 Bit unterstützen. Daran lässt sich schon erkennen, dass die Software im Falle der Prozessoren der Hardware hinterherhinkt. Die in den 1980er Jahren entwickelten 386er waren die ersten 32-Bit-Prozessoren der Intel 80x86-Familie. Im Jahre 2006 wurde von der Firma ARM der erste kommerzielle ungetaktete, asynchrone Prozessor vorgestellt, der ARM996HS. Da er ohne Taktung auskommt, weist ein asynchroner Prozessor eine im Hochfrequenzbereich geringere und wesentlich weniger prägnante Abstrahlung auf und verbraucht während Prozesspausen keinen nennenswerten Strom. Variationen Im Zuge immer höherer Integrationsdichten der Halbleiterprozesse haben die Entwickler von CPUs weitere Funktionen in die Hardware integriert. Zu den Einheiten, die früher als separate Chips angeschlossen werden mussten und im Laufe der Zeit in die CPU selbst integriert werden konnten, zählen: die Memory Management Unit zur Speicherverwaltung; der numerische Coprozessor für schnellere Rechenoperationen mit Gleitkommazahlen; Vektorarithmetikeinheiten, insbesondere für schnelle Grafikbearbeitung ? bei Intel unter den Namen MMX, SSE und Nachfolger, beim PowerPC als AltiVec bezeichnet; Cache-Speicher, zuerst nur der Level 1, heute zusätzlich Level 2 und auch schon Level 3; manchmal der Chipsatz (oder Teile davon) zur Ansteuerung des Arbeitsspeichers; manchmal ein Grafikchip zur Anzeigesteuerung; bis zu 100 Prozessorkerne auf einem Chip (Mehrkernprozessor, Terascale-Prozessor).[5] Mikrocontroller hingegen haben häufig nur wenige Register und einen eingeschränkten Befehlssatz, bei dem Addition und Subtraktion oft schon die komplexesten Operationen sind. Für einfache Anwendungen, wie die Steuerung einer einfachen Maschine, reicht diese Funktionalität jedoch aus, zumal sich höhere Funktionen durch wenige Basisoperationen implementieren lassen, beispielsweise Multiplikation durch Verschieben und Addieren (siehe Russische Bauernmultiplikation). Dafür integrieren Mikrocontroller Peripheriefunktionen und oft auch Arbeitsspeicher mit auf dem Chip. Siehe auch: Accelerated Processing Unit und Sandy Bridge Stromverbrauch Im Zusammenhang mit den steigenden Stromkosten wird der Energieverbrauch von Mikroprozessoren zu einem immer wichtigeren Leistungsmerkmal. Dies gilt vor allem für Großrechnern, Rechenzentren und Serverfarmen sowie bei mobilen Geräten wie Smartphones oder Tabletcomputern. Auch außerhalb von Rechenzentren bieten stromsparende Prozessoren Vorteile. Da die Kühler weniger zu tun haben, werden die Rechner auch leiser. Mitunter können die Computer sogar passiv gekühlt werden. Und im Sommer stellt die von einem PC produzierte Wärme in einem Raum ohne Klimaanlage eine Beeinträchtigung für die dort anwesenden Personen dar. Früher wurden neue Fertigungstechniken (v. a. Strukturverkleinerungen) vor allem zur Steigerung der Frequenz verwendet; mittlerweile werden sie teilweise eingesetzt, um den bisher stetig steigenden Stromverbrauch wieder zu reduzieren: Statt immer höherer Taktraten für einen einzigen Rechenkern werden nun bei niedrigerer Frequenz mehrere Rechenkerne in einem Prozessor untergebracht. Optimierte Fertigung reduziert Leckströme. Aktuelle Mehrkernprozessoren können in ihrem Leistungsbedarf je nach Modell zwischen 45 und 140 Watt liegen (TDP). Es werden auch zunehmend Energiesparfähigkeiten eingebaut, um nicht benötigte Komponenten zeitweise langsamer takten zu können oder ganz abzuschalten. Bzgl. des Gesamt-Stromverbrauchs wird i. A. das Race-to-Idle-Prinzip angewandt. Moderne Prozessoren kennen mitunter sogar einen ?Turbo-Modus?, um vorhandene Kühlungsreserven voll auszuschöpfen. Der Stromverbrauch von Prozessoren ist mit weiteren Folgekosten belastet: Der verbrauchte Strom wird in Wärme umgewandelt, diese muss durch den Lüfter aus dem Rechner abtransportiert werden. Höherer Verbrauch erfordert stärkere Lüfter, die ebenfalls mehr Strom verbrauchen. Ist der Aufstellungsort des Rechners selbst ein klimatisierter Raum, wird auch die Klimaanlage dadurch zusätzlich belastet. Dabei kann man abhängig von der Leistungszahl des Kühlgerätes mit ca. 25?40 % Zusatzverbrauch rechnen, d. h. ein 300-W-PC belastet die Klimaanlage mit 75?120 W höherem Leistungsbedarf. Auch das Netzteil des Rechners muss eventuell größer ausfallen. Ist der Rechner an eine USV angeschlossen, so hat diese abhängig von ihrem Wirkungsgrad ebenfalls einen höheren Eigenverbrauch. Bei vielen Rechnern an einem Ort können auch zusätzliche Investitionskosten für größere Klimaanlagen und größere USV-Anlagen anfallen. Server laufen meist 24 Stunden am Tag, sieben Tage die Woche, also insgesamt 8760 Stunden im Jahr. Um die Energiebilanz von EDV-Systemen zu verbessern, werden unterschiedliche Lösungswege verfolgt. Es wird angestrebt, die Effektivität der Kühlung zu erhöhen (Beispiel: Air Guide), als auch die abgegebene Wärme zu nutzen (Beispiel: Aquasar). Siehe auch: Green IT Kühlung ? Hauptartikel: Prozessorkühler Moderne CPUs werden ? je nach Auslastung ? während des Betriebs sehr heiß. Je nach Modell und Hersteller werden pro Quadratzentimeter Verlustleistungen von bis zu 125 Watt erreicht (aktuelle Quadcores). Zum Vergleich: Die 18-cm-Kochplatte eines üblichen Elektroherds erreicht gerade einmal 7?10 W/cm². CPUs dürfen aber, wie alle Halbleiter, bestimmte Betriebstemperaturen nicht überschreiten, da das zunächst zu Fehlfunktionen (?Abstürze?), in extremen Fällen zur Zerstörung des Chips führt (wird bei neueren Prozessoren durch Überhitzungsschutz verhindert). Übliche Grenztemperaturen für den Betrieb liegen zwischen 60 und 90 °C. Temperaturen über etwa 125 bis 135 °C führen zu irreversiblen Schäden. Prozessoren müssen also zwingend gekühlt werden, wobei ein gewisser Sicherheitsabstand zu den vom Hersteller angegebenen Höchstwerten erstrebenswert ist. Der gängigste Weg, die Kühlung der CPU sicherzustellen, ist die Montage eines Kühlkörpers mit Lüfter. Der verrippte Kühlkörper aus Aluminium oder Kupfer (teilweise kombiniert) vergrößert die Fläche, die zur Wärmeabgabe beiträgt, um ein Vielfaches, der Lüfter soll für einen zügigen Abtransport der Verlustwärme sorgen. Die Bemessung der Kühlung erfolgt häufig nicht nach der theoretisch maximal möglichen Verlustleistung, sondern aus Kostengründen nach der Thermal Design Power (TDP), die deutlich niedriger liegt. Zwischen Prozessor und Kühlkörper wird Wärmeleitpaste oder ein Wärmeleitpad eingesetzt. Durch Unebenheiten und Rauheit verbleiben zwischen Chip und Kühlkörper Lufteinschlüsse, die den Wärmetransport behindern, die Pasten oder Pads verdrängen diese Luft und verbessern den Wärmeübergang erheblich. Als Lüfter für den CPU-Kühler werden fast ausschließlich Axiallüfter mit Durchmessern zwischen 40 und 140 mm eingesetzt. Insbesondere kleine Exemplare erreichen Drehzahlen von bis zu 6500/min und können dabei eine erhebliche Geräuschkulisse erzeugen. Die Lüfter werden heute an die Hauptplatine angeschlossen, so dass die Drehzahl überwacht und bei vielen modernen Hauptplatinen auch elektronisch geregelt werden kann. Als Alternativen zur Luftkühlung gibt es noch die Wasserkühlung für leistungsstarke oder relativ leise Rechner, bei der Wasser inner- oder außerhalb des Rechners in einem Radiator (teilweise auch ohne Lüfter) gekühlt wird und dann mit Hilfe einer Pumpe durch das Gehäuse und an zu kühlenden Objekte wie CPU, manchmal auch zusätzlich an RAM, Chipsatz, Grafikprozessor etc. geleitet wird. Insgesamt ist eine Wasserkühlung aufwändiger, teurer und zumeist wartungsintensiver als eine Luftkühlung. Als erster Computerhersteller verbaute Apple in ihren Power Mac G5 Topmodellen eine standardisierte Wasserkühlung. Zuvor wurden Wasserkühlungen meist nur von Bastlern mit übertakteten Prozessoren in Eigeneinbau verwendet. Im Industriebereich wird auch Flüssigstickstoffkühlung eingesetzt, die allerdings extrem aufwändig ist. Um flüssig zu sein, muss der Stickstoff auf ?196 °C gekühlt werden, was große Kühlaggregate erfordert. Wegen der sehr niedrigen Temperatur im Rechner müssen Hauptplatine und andere Objekte wieder von der Rückseite erwärmt werden, damit sie ordnungsgemäß funktionieren. Diese Technik ist sehr schwierig realisierbar, die Betriebs- und Instandhaltungskosten sind meist höher, als mehrere einzelne Prozessoren parallel zu betreiben. Allgemein gilt es als nicht sinnvoll, eine CPU auf weniger als +10 °C herunterzukühlen, da sonst die Kosten zu hoch werden. Auch haben alle elektronischen Bauteile eine Mindestbetriebstemperatur und an zu stark gekühlten Bauteilen kann sich Kondenswasser niederschlagen, was unbedingt vermieden werden muss. Flüssigstickstoffkühlung ist jedoch als kurzfristige Lösung zur Aufstellung von neuen Taktfrequenz- und Benchmarkrekorden sinnvoll. Dafür sind auch keine Kühlaggregate notwendig, der Stickstoff wird einfach aus der Flasche nachgefüllt und verdampft. In diesem Fall entfällt auch die Erwärmung der Rückseite, weil die Komponenten während der kurzen für einen Rekordversuch nötigen Zeit meistens auch ohne derartige Maßnahmen funktionsfähig bleiben. Prozessorkühler für Sockel 775 (Intel Pentium D) mit Heatpipe im Vergleich zu einem Kühler für den Sockel 7 (Intel Pentium 1 MMX) Einzelne Hersteller verwenden auch Kompressionskältemaschinen. Diese funktionieren ähnlich wie ein Kühlschrank: Ein Kühlmittel wird stark unter Druck gesetzt und die dabei entstehende Wärme abgeführt, beim Ausgleich auf Normaldruck kühlt es weiter ab und kühlt so auch seine Umgebung, sprich Prozessor oder andere Geräte. Diese Lösung wird vor allem bei übertakteten Workstations verwendet, hat aber den Nachteil, auch die Geräuschkulisse eines Kühlschranks zu erzeugen. Eine weitere Möglichkeit zur Zwangskühlung der CPU bietet das Peltier-Element. Auch hier ist die Gefahr der Bildung von Kondenswasser gegeben. Zudem erzeugt ein Peltier-Element wegen des geringen Wirkungsgrades mindestens noch einmal die gleiche Verlustleistung wie der Prozessor selbst, die zusätzlich abgeführt werden muss. Die ?warme? Seite muss also auch hier per Wasserkühlung oder Kühlkörper mit Lüfter gekühlt werden. Auch durch den Einsatz einer Ölkühlung kann Wärme abgeführt werden, im PC-Bereich wird dies allerdings bisher nur im experimentellen Umfeld durchgeführt. Für eine Ölkühlung werden meistens keine speziellen Lüfter oder Kühleinrichten an der CPU installiert, sondern einfach das gesamte Motherboard mit installiertem Lüfter in eine Wanne voll Öl getaucht. Hierzu bietet sich nicht leitfähiges, reinstes Mineralöl an. Engineering Samples / Customer Samples Die ersten von einem Hersteller produzierten CPUs werden, ähnlich einem Prototyp, als ?Engineering Sample? oder ?Confidential CPU? an ausgewählte Firmen oder Tester verteilt. Es handelt sich grundsätzlich um voll funktionsfähige Prozessoren, die dem späteren Endprodukt meist in nichts nachstehen. Solche CPUs sind üblicherweise im Handel nicht erhältlich. Erkennbar sind solche CPU-Versionen am Kürzel ?ES? oder dem Aufdruck ?Confidential?. Zudem wurden, zumindest in der Vergangenheit von Intel, Prozessoren und ganze Chip-Sätze in ?University-Kits? abgegeben. Die dort enthaltenen Chips hatten den Aufdruck ?CS? und waren in der Regel am Keramikgehäuse beschädigt, vielfach war der Aufdruck schlecht (verrutscht, verschmiert, dubliert). Zu beachten ist, dass die Buchstabenkombination ES oder CS nicht immer Engineering oder Customer Sample bedeuten muss, oftmals ist es auch der Batch-Code oder eine Revisionsbezeichnung. Intel Mobile Pentium 4 mit dem Aufdruck Confidential. Intel Pentium MMX 166 MHz mit dem Aufdruck ES (sSpec: Q019). AMD Turion 64 X2 mit dem Aufdruck AMD ENG SAMPLE. AMD Mobile Athlon XP mit dem Aufdruck Engineering Sample. IDT WinChip (Marketing Sample). Siehe auch Liste von Mikroprozessoren Netzwerkkarte 100 MBit/s PCI-Ethernet-Netzwerkkarte mit RJ45-Buchse Eine Netzwerkkarte (auch genannt Netzwerkadapter oder NIC für engl. Network Interface Card oder Network Interface Controller) ist in Zusammenhang mit der Informationstechnologie eine elektronische Schaltung zur Verbindung eines Computers mit einem lokalen Netzwerk zum Austausch von Daten. Diese Funktion befand sich früher fast ausschließlich auf einer Steckkarte für einen Erweiterungssteckplatz und ist mittlerweile auf den meisten Hauptplatinen direkt integriert. Umgangssprachlich wird der Begriff auch für einen integrierten Netzwerkanschluss verwendet, der sich nicht auf einer separaten Karte befindet. Ihre primäre Aufgabe ist die Herstellung einer physikalischen Verbindung zum Netzwerk über ein geeignetes Zugriffsverfahren (zum Beispiel CSMA/CD) und die Implementierung der ersten oder auch zweiten OSI-Schicht (meist Ethernet). Netzwerkkarten bestehen auf der einen Seite aus einer Netzwerkschnittstelle, die für die jeweiligen Netzwerktypen bzw. die Netzwerkarchitektur ausgelegt ist, und auf der anderen Seite aus einer an die jeweilige Computerarchitektur angepasste Bus-Schnittstelle. Seit einigen Jahren haben praktisch alle Computer die (kabelgebundene) Netzwerkfunktionalität bereits auf ihrer Hauptplatine und benötigen nur noch eine Netzwerkkarte, falls eine weitere, schnellere oder drahtlose Verbindung benötigt wird. Für drahtlose Netzwerke sind USB-Sticks oder PCI Express Mini Cards als Bauform üblicher als die traditionellen Einbaukarten. Netzwerktypen Anfang der 1980er-Jahre gab es noch viele konkurrierende Netzwerkarchitekturen und Kartentypen, die größere Verbreitung hatten, insbesondere ARCNET, Ethernet, LocalTalk und Token Ring. ARCNET operierte mit einem Token-Passing-Verfahren bei 2,5 MBit/s und arbeitete meist auf Koaxialkabel RG-62 als Bus- oder Stern-Topologie. Es hatte bis 1985 deutliche Preisvorteile gegenüber Ethernet, daraus resultierten hohe Marktanteile. Durch das Tokenpassing-Verfahren arbeitet ARCNET deterministisch, lässt sich daher in Echtzeitsystemen einsetzen, was mit dem nicht Höchstlast-tauglichen ungeswitchten Ethernet problematisch ist. Ethernet verwendete zunächst meist 10-MBit/s-Karten, die meist über ein Koaxialkabel (RG-58 Thin- oder Thick-Wire) als Bus verbunden wurden. Bis 1985 waren diese Karten noch sehr teuer, mit den NE1000/NE2000-Modellen kam es zu einem Preisverfall. Ethernet ist heute das am weitesten verbreitete Verfahren. Viele der anfänglichen Nachteile, insbesondere die Probleme bei hoher Last, konnten durch verbesserte Techniken und Komponenten wie Switches weitestgehend eliminiert werden. LocalTalk wurde fast ausschließlich von Apple Computer eingesetzt, nutzte ein 232-KBit/s-Token-Passing-Verfahren über eine Zweidraht-Busverkabelung mit enger Anlehnung an die seriellen RS-422-Schnittstellen. Diese Art der Vernetzung war bei Apple-Rechnern sehr populär, denn von 1984 bis 1998 war diese Schnittstelle bei jedem Apple-Computer serienmäßig (ohne zusätzliche Einsteckkarte) vorhanden. Für PCs (auch Novell Netware-Server) gab es passende LokalTalk-Netzwerkkarten, meist in 8-Bit-ISA-Bus-Ausführung. Token Ring wurde vorwiegend im IBM-Umfeld (Banken) genutzt, es arbeitete bei 4 oder 16 MBit im Token-Passing-Verfahren und hatte eine Ring-Topologie. Als 1995 der Fast-Ethernet-Standard verabschiedet wurde, lichtete sich der Markt, und reine 10-MBit-Ethernet-Karten wurden durch 10/100-MBit-Karten ersetzt. Diese sind nicht mehr am stärksten verbreitet, da Gigabit-Ethernet-Karten (die ebenfalls 10/100-MBit-kompatibel sind) deutliche Marktanteile gewinnen konnten. Diese Karten werden über Twisted-Pair-Kabel mit RJ45-Steckern, an einen Hub oder mittlerweile meist an einen Switch angeschlossen und bilden so ein lokales Netzwerk (LAN). Mit den 1000-MBit-Netzwerkkarten, die meist über Twisted-Pair-Kabel mit RJ45-Steckern (1000BASE-T) verbunden werden, begann die Verbreitung von Glasfaser (z. B. 1000BASE-SX) für den Anschluss von Endknoten. Glasfasern werden bei schnelleren Verbindungen immer häufiger verwendet und ab 25 Gbit/s fast ausschließlich. Netzwerkkarten für drahtlose Netzwerke (Wireless LAN) fanden zunächst hauptsächlich in mobilen Geräten wie z. B. Notebooks oder PDAs Verwendung, werden aber zunehmend auch in Desktop-PCs verbaut. Bussysteme Busseitig wechselten sich auch bei Netzwerkkarten verschiedene Standards ab. Nicht für alle Bussysteme gab es Netzwerkkarten, beispielsweise nicht für den Accelerated Graphics Port (AGP). Auch gab es eher exotische Konstruktionen über den SCSI-Bus oder über Druckerschnittstellen, wobei letztere eine Zeitlang bei Notebooks zum Einsatz kamen. Im UNIX-Bereich, bei Workstations und Servern, genauso wie bei Großrechnern gab es zahlreiche herstellerspezifische Bussysteme, die auch für Netzwerkkarten genutzt wurden. Hier eine Übersicht über für Netzwerkkarten typische Bus-Systeme: ISA: Um 1980, anfangs dominierten in PCs Netzwerkkarten mit der weit verbreiteten ISA-Bus-Schnittstelle, zunächst in 8-Bit-Technik (XT-Bus-Architektur) (z. B. NE1000) später in 16-Bit-Ausführung (z. B. NE2000) PCMCIA bzw. PC-Card: Diese Schnittstelle wurde vorwiegend bei Notebooks eingesetzt, vereinfachend gesagt handelt es sich um eine miniaturisierte ISA-Schnittstelle. VESA Local Bus: Kurzlebiger Standard in der ersten Hälfte der 1990er Jahre, entwickelt zur schnelleren Anbindung von Steckkarten. NuBus: Ab 1980, eine bei Apple Computer und NeXT Computer verbreitete Schnittstelle. MCA: Ein ab 1987 von IBM als Nachfolger von ISA propagiertes Bus-System. Ein gescheiterter Versuch, einen nicht kompatiblen und nicht offenen, aber verbesserten Bus einzuführen. EISA: Ein Ende der 1980er von allen außer IBM als Nachfolger des ISA-Bus propagiertes Bus-System. Eine kompatible ISA-Bus-Erweiterung für 32-Bit-Transfer per in Linie verlängerter Kontaktleiste. EISA kam vor allem bei Workstations und Servern zum Einsatz. PCI: Um 1990, der tatsächliche Nachfolger der ISA-Bus-Architektur. Als offener Standard ersetzte er auch den EISA-Bus und wurde darüber hinaus zur Ablösung verschiedener proprietärer Bus-Systeme eingesetzt. Beispielsweise löste PCI bei Apple Computer den NUBUS ab, bei Hewlett-Packard den GSC/HSC und den HP-PB, sowie bei IBM den MCA. USB ist sowohl bei Desktop-Computern als auch bei Laptops extrem verbreitet und erlaubt die einfache Nutzung per Plug and Play, insbesondere mit WLAN sehr beliebt. PCI-Express löste ab 2004 den PCI-Bus und den für Grafikkarten populären AGP ab. ExpressCard: Auf PCI-Express x1 basierende Notebookschnittstelle Onboard: Seit den frühen 2000er Jahren haben fast alle Rechner-Hauptplatinen fest eingebaute LAN-Schnittstellen, dedizierte Steckkarten sind somit meist nicht mehr nötig. Oft kommen die gleichen elektronischen Bausteine zum Einsatz, lediglich die Steckverbindungen fehlen, oft ist auch der Controller im Chipsatz integriert. Von der Treibersoftware werden diese Chips wie Einsteckkarten behandelt (z. B. gibt es meist eine PCI-Schnittstelle, die angesteuert/programmiert wird). Bilder Madge ISA-Token-Ring-Netzwerkkarte (4/16 Mbit/s) 10 MBit/s XT-Ethernet-Netzwerkkarte mit RG58-Buchse und 15-pol. SUB-D-Buchse (AUI) 10 MBit/s Legacy-ISA-Ethernet-Netzwerkkarte mit RG58-Buchse EISA Netzwerkkarte mit RG58- und 15-pol. SUB-D-Buchse (AUI) 10 MBit/s ISA-PnP-Ethernet-Netzwerkkarte mit RJ45-Buchse, RG58-Buchse und 15-pol. SUB-D-Buchse MCA-Netzwerkkarte mit RG58-Buchse NuBus-Ethernet-Netzwerkkarte mit RJ45-Buchse 10 MBit/s PCI-Ethernet-Netzwerkkarte mit RJ45-Buchse und RG58-Buchse 1000 MBit/s PCI-X-Ethernet-Netzwerkkarte mit RJ45-Buchse Netzwerkkarte mit RG58-Buchse für Druckerschnittstelle 10 MBit/s PCMCIA-Ethernet-Netzwerkkarte mit RJ45-Buchse und RG58-Buchse 100 MBit/s PC-Card-Ethernet-Netzwerkkarte mit RJ45-?Buchse? Ausstattung Eine gängige Netzwerkkarte besitzt nur einen Ethernet-Anschluss, spezielle Ausführungen auch mehrere (bis zu vier). Der Preis einer billigen Standard-Netzwerkkarte ist von mehreren 100 EUR (1990) auf derzeit (2009) etwa 5?15 EUR gefallen. Höherwertige Netzwerkkarten (mit besserem Datendurchsatz, geringerer CPU-Last, besserer Ausstattung) kosten je nach Ausführung bis zu 100 EUR, sehr spezielle Karten (z. B. mit mehreren unabhängigen Anschlüssen) auch darüber. Seit Ende 2003 befinden sich bei vielen neuen PCs bereits 1-GBit-Anschlüsse auf der Hauptplatine. Jede Ethernet-Netzwerkkarte besitzt eine weltweit eindeutige MAC-Adresse, die vom Hersteller vergeben wird. Allerdings gibt es auch Treiber, die es erlauben, die MAC-Adresse per Software temporär zu ändern, wodurch Sicherheitsprobleme in einem LAN entstehen können. Booten vom Netzwerk Viele Netzwerkkarten haben einen Sockel für ein sogenanntes Boot-PROM (auch Boot-ROM genannt). Dieser Speicherbaustein wird in den Adressbereich des Rechners eingeblendet und erlaubt den Start des Rechners aus dem Netzwerk, ohne einen lokalen (in den Rechner eingebauten oder direkt angeschlossenen) Massenspeicher, wie z. B. eine Festplatte. Verschiedene Computerarchitekturen (Apple, PC), Betriebssysteme sowie verschiedene Netzwerk-Umgebungen (IPX/SPX, TCP/IP) erfordern unterschiedliche Boot-Programme, so dass es dem Anwender überlassen bleibt, die Netzwerkkarte mit einem PROM (oder EPROM) mit dem jeweils passenden Boot-Programm zu bestücken. Der klassische Weg für PCs ist ein sogenanntes Novell-Boot-PROM für den Einsatz mit Novell Netware und Novells eigenem Netzwerkprotokoll. Modernere, auf TCP/IP aufsetzende Konzepte sind z. B. Intels PXE und die quelloffenen und kostenlosen Lösungen Etherboot und Netboot. Alle Ansätze haben eines gemeinsam: Das Programm im Boot-PROM wird gestartet und klinkt sich in den weiteren Boot-Vorgang ein. Irgendwann, entweder vor oder nach der Suche nach einem startfähigen lokalen Medium, wird das Boot-PROM wieder aktiviert und lädt über das Netzwerk ein Betriebssystem nach. Üblicherweise geschieht das in kleinen Schritten, zunächst ein Hilfsprogramm mit erweiterten Netzwerkfunktionen, dann größere Teile des Betriebssystems. Schließlich wird die Kontrolle an das Betriebssystem übergeben, das dann in der Regel weitere Netzwerkdienste in Anspruch nimmt. Manche Netzwerkkarten haben statt des Sockels ein direkt im Chipsatz der Netzwerkkarte integriertes, umprogrammierbares EEPROM, das mit einem Hilfsprogramm mit verschiedenen Boot-Programmen geladen werden kann, so dass ein Öffnen des Rechners entfällt. Hauptplatinen mit integriertem Netzwerkadapter, genauso wie viele UNIX-Workstations, nutzen einen Teil des ohnehin vorhandenen System-EEPROMs (BIOS) als Boot-PROM, auch hier kann in der Regel mit einem Hilfsprogramm ein beliebiges Boot-Programm eingespielt werden oder der Hersteller gibt fest BOOTP oder PXE vor. Aus Kostengründen verzichten insbesondere Hersteller von Billigprodukten oft auf den Sockel für das Boot-PROM. Außerhalb der PC-Welt ist das Starten aus dem Netzwerk oft ein Teil des fest installierten Startprogramms, z. B. bei vielen Sun-Maschinen und modernen Macintosh-Systemen. Allerdings wird dabei meist nur eine spezielle, vom Hersteller zertifizierte, Auswahl von Netzwerkadaptern unterstützt. Alle moderneren Apple-Computer können von einem Rechner booten, auf dem die Server-Variante von Mac OS X läuft. Smartphone Ein Smartphone zeigt die Hauptseite der deutschsprachigen Wikipedia in der mobilen Version Ein Smartphone ([?sma???tfo??n]; [?sm??tfo??n] AE, [?sm??t?f???n] BE) (englisch, etwa ?schlaues Telefon?) ist ein Mobiltelefon (umgangssprachlich Handy), das erheblich umfangreichere Computer-Funktionalitäten und -konnektivität als ein herkömmliches ?reines? Mobiltelefon zur Verfügung stellt. Erste Smartphones vereinigten die Funktionen eines Personal Digital Assistant (PDA) bzw. Tabletcomputers mit der Funktionalität eines Mobiltelefons. Später wurden dem kompakten Gerät auch noch die Funktionen eines transportablen Medienabspielgerätes, einer Digital- und Videokamera und eines GPS-Navigationsgeräts hinzugefügt. Ein zentrales Merkmal moderner Smartphones sind berührungsempfindliche Bildschirme, mit denen alle Funktionen gesteuert werden. Eine schnelle Internet-Anbindung erfolgt wahlweise mittels einer mobilen Breitbandverbindung über den Mobilfunkanbieter oder per WLAN. Ein wichtiges Merkmal ist auch, dass der Nutzer über ein Internet-Downloadportal (einen ?App Store?) auf einfache Weise Zusatzprogramme (?Apps?) installieren kann, die es mittlerweile für eine große Vielfalt von Anwendungszwecken gibt. Ein Smartphone kann prinzipiell über seine Gebrauchsdauer per Software- und Betriebssystem-Update der technischen Entwicklung folgen, jedoch stellen die meisten Hersteller die Unterstützung älterer Modelle nach wenigen Jahren weitgehend ein. Die ersten Smartphones gab es bereits in den späten 1990er Jahren, aber erst mit der Einführung des iPhones im Jahr 2007 gewannen sie nennenswerte Marktanteile. Heute sind die meisten verkauften Mobiltelefone Smartphones. Durch den permanent mitgeführten Internetzugang löste dies einen Wandel im Internet-Nutzungsverhalten aus, insbesondere bei sozialen Netzwerken wie Facebook oder Twitter. Online-Enzyklopädien wie Wikipedia profitieren ebenso durch die permanente Verfügbarkeit, da Artikel auch von unterwegs bearbeitet und Fotos deutlich einfacher hochgeladen werden können. Das meistverbreitete Smartphone-Betriebssystem ist das von fast allen Herstellern verwendete Android (Marktanteil nach Stückzahlen Q2 2015 etwa 83 %), mit einigem Abstand gefolgt von dem nur auf Apple-Geräten eingesetzten Apple iOS (Marktanteil nach Stückzahlen Q2 2015 etwa 14 %).[1] Smartphones können durch folgende Merkmale von klassischen Mobiltelefonen, PDAs und Electronic Organizern unterschieden werden: Smartphones sind bezüglich Konstruktion und Bedienung nicht nur für das Telefonieren optimiert, sondern sollen auf kleinem Raum die Bedienung einer breiten Palette von Anwendungen ermöglichen. Typische Merkmale sind daher im Vergleich zu älteren Mobiltelefonen relativ große und hochauflösende Bildschirme, alphanumerische Tastaturen und/oder Touchscreens. Smartphones verfügen meist über ein Betriebssystem mit offengelegter API (siehe Abschnitt Betriebssysteme). Es ermöglicht dem Benutzer, Programme von Drittherstellern zu installieren. Mobiltelefone haben im Gegensatz dazu meist eine vordefinierte Programmoberfläche, die nur begrenzt, z. B. durch Java-Anwendungen, erweitert werden kann. Smartphones verfügen oft über unterschiedliche Sensoren, die in klassischen Mobiltelefonen seltener zu finden sind. Hierzu zählen insbesondere Bewegungs-, Foto- (RGB und schwarz-weiß), Lage-, Magnetfeld-, Licht- und Näherungssensoren sowie GPS-Empfänger.[2] Durch diese Merkmale bieten Smartphones die Grundlagen zur mobilen Büro- und Datenkommunikation in einem einzigen Gerät. Der Benutzer kann Daten (etwa Adressen, Texte und Termine) über die Tastatur oder einen Stift erfassen und zusätzliche Software selbst installieren. Die meisten Geräte verfügen über eine oder mehrere Digitalkameras zur Aufnahme unbewegter und bewegter Bilder sowie für die Bildtelefonie. Die bei PDAs z. B. zur Synchronisierung verwendeten Verbindungsarten, wie WLAN, Bluetooth, Infrarot oder die USB-Kabelverbindung, werden durch bislang in der Mobiltelefonie übliche Verbindungsprotokolle, wie GSM, UMTS (und HSDPA), GPRS und HSCSD, ergänzt. So ist es beispielsweise möglich, unterwegs neben der Mobiltelefonie auch SMS, MMS, E-Mails sowie, bei modernen Geräten, Videokonferenzen per UMTS oder Internet-Telefonie (VoIP) mit WLAN über Internet-Zugriffspunkte zu nutzen. Theoretisch ? und zum Teil auch in der praktischen Nutzung ? können damit neben Audio- und Videostreamings aus dem Internet (zum Beispiel über WLAN) auch Fernsehprogramme über DVB-H und mit entsprechender Hardware auch DVB-T empfangen werden.[3] Ein weiteres Beispiel ist die eingebaute oder optionale Java-Unterstützung (auf CLDC- oder MIDP-Basis) ? Mobiltelefone gelten als eine der populärsten Anwendungen von Embedded Java. Smartphones werden zunehmend auch für die Fernsteuerung von digitalen Geräten eingesetzt, wie zum Beispiel Kameras, Action-Camcordern, AV-Receivern, Fernsehgeräten oder Quadcoptern. Geschichte Der Simon Personal Communicator von IBM aus dem Jahr 1994 Als das erste Smartphone gilt der von BellSouth und IBM entwickelte und von Mitte 1994 bis Anfang 1995 in einem Teil der USA als ?Personal Communicator? vertriebene Simon.[4] Vorreiter der Smartphone-Systeme war das PEN/GEOS 3.0 des Herstellers GeoWorks, das in der 1996 eingeführten Nokia-Communicator-Serie eingesetzt wurde. Als Nokia für die Communicator-Reihe 92x0, 9300, 9300i und 9500 auf einen anderen Prozessor wechselte, bildete das Unternehmen mit Psion und dessen EPOC-System eine Allianz, um die Symbian-Plattform zu entwickeln. Symbian war lange Zeit das meistgenutzte Smartphone-Betriebssystem und hatte im Jahr 2006 einen Marktanteil von etwa 73 %.[5] Die wichtigsten Konkurrenten waren Windows Mobile, Blackberry OS und Palm OS. Die Einführung des iPhone mit seiner Multitouch-Bedienoberfläche im Jahr 2007 markierte einen Wendepunkt im Smartphone-Markt. Neue Betriebssysteme wie Android, Palm webOS und Windows Phone 7 konnten hauptsächlich oder ausschließlich über Touchscreens bedient werden. Symbian verlor dadurch schnell an Bedeutung und lag im Herbst 2011 etwa gleichauf mit dem iPhone. Zwischen 2008 und 2011 kündigten alle großen Hersteller von Symbian-Geräten an, in Zukunft auf andere Systeme zu setzen.[6][7][8] Das am häufigsten installierte Mobil-Betriebssystem auf Smartphones ist seit Herbst 2011 Android von Google mit über 60 % Marktanteil,[9] was an dem deutlich geringeren Durchschnittsverkaufspreis von Mobiltelefonen mit Android liegt.[10] Ebenfalls mit einem signifikanten Marktanteil ist danach iOS von Apple zu erwähnen. Der finnische Hersteller Nokia, der für viele Jahre führender Hersteller von Mobiltelefonen war (1998 bis 2011), bot seit 2012 Smartphones fast ausschließlich mit dem Microsoft-Betriebssystem Windows Phone an, verkaufte jedoch seine Mobiltelefon-Sparte im Jahr 2014 an Microsoft. Seit 2009 kommt es angesichts der zunehmenden Bedeutung von Smartphones zu zahlreichen Rechtsstreitigkeiten um Patente und Designrechte, an denen alle großen Smartphone-Hersteller beteiligt sind.[11] Das 2013 eingeführte Galaxy S4 ist das erste TCO-zertifizierte Smartphone der Welt.[12] Ende 2013 kam mit dem Fairphone das erste Smartphone auf den Markt, bei dem Fairtrade- und Umweltaspekte eine größere Rolle spielen sollten.[13] Der weltweite Absatz von Smartphones ist seit dem 4. Quartal 2017 rückläufig.[14] Im Gesamtjahr (2017) wurden weltweit insgesamt 1,472 Milliarden Smartphones ausgeliefert, was einem Rückgang von weniger als 1 % gegenüber den 1,473 Milliarden Einheiten im Jahr 2016 entspricht.[15] Die höchsten Marktanteile am Smartphone-Markt haben derzeit (Stand 2018) Samsung, Huawei und Apple.[14] Merkmale Fotografie mit einer einfachen Fotokamera in einem Samsung Galaxy S6 (10,68 MB) Moderne Smartphones lassen sich dank einer großen Funktionsfülle je nach Ausstattung u. a. nutzen als: Zentrale für vom Benutzer beabsichtigte (Mobiltelefon, Webbrowser, E-Mail, SMS, MMS sowie IP-Telefonie (VoIP), Instant Messaging (IM) und Chat, teilweise auch Fax, Video-Telefonie und Konferenz-Schaltungen), aber auch nicht beabsichtigte (Abhöreinrichtungen, Spionage) Kommunikation Personal Information Manager (PIM) mit Adressbuch, Terminkalender, Aufgabenliste, Notizblock, Geburtstagsliste usw. mit Abgleich mit einer Desktop-Applikation oder über das Internet (Microsoft (Hosted) Exchange, Blackberry-Dienst) Diktiergerät Speicher und Versender von Daten aller Art, auch in Echtzeit Medienfunktionen mit Mediaplayer, Radio, Bildbetrachter, Foto- und Videokamera Taschencomputer (beispielsweise Textverarbeitung, Tabellenkalkulation, PDF-Reader, Taschenrechner) Funk-Modem für den PC, auch Tethering genannt Navigation mit Navigationssystem und Landkarten bzw. Mittel zur Bestimmung des eigenen Aufenthaltsorts durch andere Gerät für standortbezogene Dienste (Location Based/Aware Services), wie mobile Umgebungssuche (von sogenannten Points of Interest) mobile Spielkonsole Enterprise Mobility Client: Mobiles Zugangsgerät (i. d. R. als Thin Client) zu IT-Diensten und Servern innerhalb einer Unternehmensinfrastruktur, Einsatzbeispiele: ERP, CRM, Warenwirtschaftssystem, Spezial- und Branchenlösungen in der Industrie, Logistik, Medizin (KIS Krankenhausinformationssystem) finanzielle Ressource im bargeldlosen Zahlungsverkehr Ersatz für Alltagsgegenstände (beispielsweise als Uhr, Wecker oder Taschenlampe / Lichtquelle) Ausführungen Smartphones sind in unterschiedlichen Bauformen verfügbar, die sich nicht klar voneinander abgrenzen lassen. Ein häufiges Merkmal ist eine QWERTZ-Tastatur, die entweder eingeklappt bzw. eingeschoben werden kann (bspw. Samsung F700 Qbowl) oder fest an der Gerätefront angeordnet ist (bspw. Nokia E61i). Letztere Bauform wird auch als Q-Smartphones (Q = Qwertz oder Qwerty) bezeichnet. Die meisten Smartphones haben einen Touchscreen und lassen sich ähnlich einem PDA bedienen. Während einige Geräte (bspw. Apple iPhone) komplett auf die Bedienung mit den Fingern ausgelegt sind (diese Bauform wird auch als Touch-Phone bezeichnet), sind bei anderen Geräten viele Funktionen mit einem Eingabestift bedienbar (bspw. Sony Ericsson P1i). Praktisch alle Smartphones besitzen eine Front- und eine Rückkamera, wobei die Rückkamera in der Regel mit wesentlich höherer Auflösung, vom Betrachter weg gerichtet ist, während die Frontkamera der Videotelefonie bzw. der Aufnahme von Selbstporträts (Selfies) dient. Abbildungen (Beispiele) Nokia Communicator (1996) Siemens SX1 mit Series-60-Betriebssystem (2004) erstes iPhone (2007) Samsung SGH-I900 Omnia (2008) T-Mobile G1 mit Android (2008) Palm Pre (2009) Sony Ericsson Xperia X10 mini pro (2010) Nokia Lumia 900 (2012) Nokia Lumia 1020 mit Kameragriff PD-95G (2012) HTC One (2013) Blackberry Z10 (2013) Rückseite des iPhone 6 Plus in Gold (2014) Samsung-Galaxy - Modelle (S8, S8+ und Note 8, 2017) Lenovo K6 mit grauem Metallgehäuse in Mobiltelefon-Buchtasche TouchID eines Apple iPhone 6S, integraler Bestandteil der Bedienung Phablets ? Hauptartikel: Phablet Das Galaxy Note (5,3 Zoll) Die Wortschöpfungen Phablet (im deutschsprachigen Raum auch Smartlet) bezeichnen Mischformen aus Smartphones und Tablet-Computern. Es handelt sich dabei um Smartphonemodelle mit überdurchschnittlich großen Bildschirmen. Phablets sind kleiner als gängige Tablets; für sie werden Bildschirmgrößen von ungefähr 5 bis 7 Zoll (ca. 13 bis 18 cm) angegeben.[16][17][18] Beispiele für Phablets sind Apple iPhone 6 Plus, LG G Flex, Nokia Lumia 1520, Samsung Galaxy Note 3, Nexus 6[16] und Sony Xperia Z Ultra.[19] Der Terminus wurde in einem technologischen Artikel (bezüglich des Dell Streak) erstmals 2010 verwendet. Popularität erhielt er mit dem Erscheinen des Galaxy Note (2011) von Samsung, welches mit seinem Überraschungserfolg den Phablet-Boom auslöste. ?Phablet? trägt einen spöttelnden Unterton, der auf die Komik bei der Handhabung solch großer Geräte abzielt (?An awkward term for supersize devices that can seem rather ridiculous to use?).[20][20][21][22] Weitere Bauformen Der russische Anbieter Yota stellte eine Variante eines Smartphones vor, bei der neben der herkömmlichen Flüssigkristallanzeige ein zweiter Bildschirm mit elektronischem Papier auf der Rückseite des Gerätes verfügbar ist, der auch bei hellem Umgebungslicht gut ablesbar, aber noch nicht berührungsempfindlich ist.[23] Betriebssystem Da Smartphones komplexer sind als einfache Mobiltelefone, ist ein Smartphone eher als ein System zu betrachten: Es besteht im Grunde aus mehreren unterschiedlichen, miteinander vernetzten Geräten. Insbesondere das Mobilfunk-Modul bzw. -Modem ist dabei ebenfalls nur eines von vielen Geräten. Es hat daher zum Teil eine eigene Firmware und operiert in gewissem Maße unabhängig vom Rest des Systems, wie etwa beim Apple iPhone oder bei den Android-Geräten.[24] Siehe auch: Baseband-Prozessor Funktionsweise und Systemarchitektur Smartphone-Betriebssysteme sind grundsätzlich in mehreren Schichten aufgebaut (Systemarchitektur). Diese Architektur ist in der Regel konstituiert durch einen Kern, eine Schicht für grundlegende Funktionen und Bibliotheken sowie weiteren Schichten, auf welchen Anwendungen ausgeführt werden bzw. mit dem User und den darunterliegenden Schichten kommunizieren. Die detaillierte Ausgestaltung der Systemarchitektur hingegen ist Betriebssystem-spezifisch und bildet eines der Abgrenzungskriterien unter den verschiedenen Smartphone-OS. So gliedert sich das Android-OS in einen Linux-Kernel, die Android Runtime, die Libraries, ein Applications Framework sowie die Applications. Der Linux-Kernel 2.6, welcher dem Betriebssystem zu Grunde liegt, wurde von den Betreibern stark verändert und an die Erfordernisse für den Einsatz auf mobilen Endgeräten angepasst. Dabei wurden verschiedene Treiber und Bibliotheken stark verändert bzw. gänzlich ersetzt. Dies betrifft vor allem das im Kernel angelegte Speichermanagement. Neu in der Android-Version des Linux-Kernels ist u. a. ein Treiber namens Binder. Durch diesen wird es ermöglicht, dass unterschiedliche Prozesse miteinander kommunizieren können, indem gemeinsam auf im Shared Memory angelegte Objekte zurückgegriffen wird. Die Vergabe von Zugriffsberechtigungen wird dabei über einen Android-spezifischen Treiber namens Ashmen geregelt. Ziel dabei ist es vor allem, möglichst ressourcenschonend zu operieren.[25] Die über dem Kernel liegende Ebene beinhaltet Android Runtime und die Bibliotheken. Im Bereich der Bibliotheken wird weitestgehend auf die Standard-Linux-Bibliotheken zurückgegriffen. Um auch auf dieser Ebene maximale Ressourcenschonung erreichen zu können, ist zusätzlich die C-Bibliothek Bionic implementiert. Innerhalb der Android Runtime findet sich neben einigen Kernkomponenten die Dalvik Virtual Machine ? eine Google-Eigenentwicklung. Jede Anwendung läuft dabei auf einer eigenen DVM als ein eigener Prozess. Diese kann via IPC-Treiber mit anderen Prozessen (oder Teilen davon) kommunizieren. Die DVM arbeitet mit einem eigenen Bytecode (dex-Bytecode).[26] Das Applications Framework bildet den Rahmen, mittels dessen den verschiedenen Anwendungen der Zugriff auf verschiedene Hardwarekomponenten erlaubt wird (API). Android greift hierbei, wie die meisten anderen Smartphone-Betriebssysteme auch, auf Sandboxing zurück, d. h., Anwendungen werden nur in einem strikt abgegrenzten Bereich ausgeführt. Die oberste Applications-Ebene beinhaltet die eigentlichen Anwendungen (Apps) sowie die Kernkomponenten (Kontakte, Browser, SMS etc.).[27] Das iOS wird ebenfalls durch verschiedene Schichten konstituiert. Namentlich sind diese die Core OS, die Core Services, Media, Cocoa Touch.[28] Ganz grundlegende Unterschiede bestehen jedoch zwischen den Betriebssystemen, welche auf einem monolithischen Kernel aufgebaut sind (Android, Windows Phone, iOS u. a.), und solchen, die auf Micro-Kernel zurückgreifen. Diese Technik wird jedoch (im Bereich der Betriebssysteme mit nennenswertem Marktanteil) aktuell nur durch das Blackberry OS und Symbian-OS realisiert. Unterschiede zwischen verschiedenen Smartphone-Betriebssystemen Über die Systemarchitektur hinaus lassen sich die verschiedenen Betriebssysteme durch zahlreiche weitere Kriterien voneinander abgrenzen. Herstellerbindung Deutlichstes Abgrenzungsmerkmal hierbei ist die Herstellerbindung. Während die Verwendung von Android, Windows Phone, Symbian und Firefox nicht an einzelne Gerätehersteller gebunden ist, findet sich das Betriebssystem iOS ausschließlich auf Geräten von Apple und Blackberry OS ausschließlich auf Geräten von Blackberry wieder. Zahl und Verfügbarkeit von Anwendungen Auch in Anzahl und Verfügbarkeit der Apps unterscheiden sich die verschiedenen Betriebssysteme mithin gravierend. Während für Android und iOS jeweils mehr als 1.000.000 verschiedene Apps erhältlich sind, bewegen sich die übrigen Betriebssysteme im unteren sechsstelligen Bereich, was die Zahl der verfügbaren Anwendungen betrifft. Eine zusätzliche Unterscheidung kann in diesem Zusammenhang auch im Bereich der Verfügbarkeit bzw. Bezugsmöglichkeiten der verschiedenen Apps getroffen werden. Während Android-Apps (nach expliziter Freigabe durch den Nutzer) nicht nur über den Google Play Store, sondern auch über Drittanbieter bezogen werden können (analog Firefox OS und Blackberry), ist die Installation von z. B. iOS-Anwendungen nur via App Store von Apple möglich (analog Windows).[26] Sicherheit Die Sicherheit betreffend, gilt Android als das fragilste Betriebssystem (einbezogen in die zugrundeliegende Untersuchung waren Android, iOS, Windows Phone 7 und Blackberry 6.x). Dies ist vor allem auf die weniger konsequente Sicherheitspolitik hinsichtlich der Richtlinien und Einstiegshürden für App-Entwickler zurückzuführen. So müssen Android-Entwicklungen nicht abschließend geprüft, zertifiziert und signiert werden, was es schlussendlich ermöglicht, Apps, welche gravierende Sicherheitslücken aufweisen bzw. welche selbst Schadsoftware stellen, in Google Play einzustellen. Wesentlich restriktiver sind die Sicherheitsrichtlinien bei iOS und vor allem bei Blackberry. Bei diesen, aber auch bei Windows Phone, muss jede erstellte Anwendung zusätzlich geprüft und zertifiziert werden. Vor allem Blackberry besteht hierbei auf die Einhaltung von über 400 verschiedenen Richtlinien. Ein Sicherheitsrisiko bei iOS kann ein Jailbreak darstellen. Durch einen Jailbreak werden root-Benutzerrechte freigeschaltet, welche es ermöglichen, jegliche Art von Software, einschließlich Schadsoftware auszuführen. Marktanteile Eine Übersicht der weltweiten Marktanteile der Hersteller von Smartphone-Betriebssystemen zeigen nebenstehende Abbildungen.[29] Übersicht und Marktanteile: Marktanteile laut IDC für das Jahr 2013[30] Hersteller Prozent Android ? 78,6 % BlackberryOS ? 1,9 % Apple iOS ? 15,2 % Windows Phone ? 3,3 % diverse ? 1,0 % Betriebssystem Entwickler Anmerkungen Aliyun OS Volksrepublik China Alibaba Group auf Linux basierend und ab 2011 auf dem chinesischen Markt präsent Android Vereinigte Staaten Open Handset Alliance (unter der Leitung von Google) auf Linux basierendes Open-Source-Projekt; siehe auch bekannte Android-Derivate bada Südkorea Samsung Verschmelzung ab 2013 mit Tizen Baidu Yi Volksrepublik China Baidu 2011 entwickelt und eine Abspaltung von Android Blackberry OS Kanada Blackberry bis 2013 Research In Motion (RIM) Blackberry 10 Kanada Blackberry Nachfolger von Blackberry OS Brew Vereinigte Staaten Qualcomm CyanogenMod Vereinigte Staaten Cyanogen Inc. eine in den Jahren 2009 bis 2016 gepflegte Modifizierung des von Google entwickelten freien Betriebssystems Android und der Vorgänger des Betriebssystems LineageOS. Firefox OS Vereinigte Staaten Mozilla Corporation auf Linux basierendes Open-Source-Projekt, ehemals Boot2Gecko iOS Vereinigte Staaten Apple 2007 bis Juni 2010 iPhone OS LiMo-Platform Vereinigtes Königreich LiMo Foundation ab 2013 zusammen mit MeeGo zu Tizen verschmolzen LineageOS Vereinigte Staaten LineageOS Open-Source-Community ab 2016 eine Modifizierung des von Google entwickelten freien Betriebssystems Android und der Nachfolger des eingestellten Custom-ROMs CyanogenMod. MeeGo Vereinigte Staaten Linux Foundation auf Linux basierende freie Software und 2010 aus den Projekten Maemo (Nokia) und Moblin (Intel) entstanden; ab 2013 zu Tizen verschmolzen microG Deutschland microG Community ab 2017 eine Abspaltung des Betriebssystems LineageOS, bei dem die freie Nachbildung microG als Alternative für die proprietären Google-Bibliotheken integriert ist. Microsoft Windows Phone Vereinigte Staaten Microsoft Aktuellste Version ist Windows 10 Mobile. Microsoft Windows Mobile Vereinigte Staaten Microsoft bis 2010 entwickeltes Betriebssystem, basierend auf Windows CE MobiLinux Vereinigte Staaten MontaVista 2005 auf Linux basierendes System; Übernahme von MontaVista 2009 durch Cavium Openmoko Republik China (Taiwan) Openmoko basierend auf dem 2007 bis 2009 entwickelten Openmoko Linux OPhone OPhone Software Developers Network Volksrepublik China China Mobile Volksrepublik China Borqs Beijing auf Linux und Android basierendes Betriebssystem, auch als OMS (Open Mobile System) bezeichnet Sailfish OS Finnland Jolla Open-Source-Initiative, Weiterentwicklung von MeeGo mit neuentwickelter Benutzeroberfläche Symbian Vereinigtes Königreich Symbian Foundation Finnland Nokia ehemals weltweit Marktführer unter den Betriebssystemen; hat ab 2011 an Bedeutung verloren und wurde Ende 2012 komplett eingestellt Tizen Vereinigte Staaten Linux Foundation freie Software; Nachfolger von MeeGo und Verschmelzung mit der LiMo-Plattform und mit bada (Samsung) web OS Südkorea LG Electronics Vereinigte Staaten Hewlett-Packard frühere Bezeichnung Palm OS; 2013 Übernahme durch LG Electronics; auch Open web OS Ubuntu for phones Isle of Man Ubuntu Foundation Vereinigtes Königreich Canonical basierend auf der Linux-Distribution Ubuntu Anwendungssoftware ? Hauptartikel: Mobile App Prozessoren Der Prozessor übernimmt, wie in jedem Computersystem, die anfallenden Rechenoperationen. Je nach Hersteller und Modell gibt es dabei große Leistungsunterschiede. Während ältere und vor allem kostengünstigere Geräte nur eine relativ geringe Prozessorleistung haben, können Spitzenmodelle im Jahr 2017 mehrere Prozessorkerne und eine Taktrate von über 2 GHz aufweisen. Die meisten in Smartphones verbauten Prozessoren basieren auf lizenzierten Designs der ARM-Architektur. Die Verwendung des x86-Befehlssatzes wie bspw. bei Motorolas RAZR i, ist bei Smartphones im Gegensatz zu Notebooks, wo x86 dominiert, die Ausnahme. In Nokias N-Serie haben Prozessoren von Texas Instruments große Verbreitung gefunden. Diverse Geräte, darunter das N70, N80 und N90, sind mit dem TI OMAP 1710 ausgestattet, der mit einer Taktrate von 220 MHz arbeitet. Die Modelle Nokia N93 und N95 verfügen über den TI OMAP 2420, der mit 330 MHz getaktet ist. Dadurch sind diese Geräte schneller zu bedienen und eignen sich durch eine verbesserte Grafikeinheit bereits für Videospiele. In den HTC-Modellen Touch Diamond, Touch Pro und Touch HD kommen Qualcomm-Prozessoren mit einer Taktfrequenz von 528 MHz zum Einsatz. Da HTC in diesen Geräten jedoch Windows Mobile als Betriebssystem einsetzt, welches mehr Arbeitsspeicher und Rechenleistung benötigt, bietet die höhere Prozessorleistung keinen merklichen Vorteil hinsichtlich der Arbeitsgeschwindigkeit. Mit 620 MHz nochmals höher ist die Prozessor-Geschwindigkeit des Apple iPhone 3GS aus dem Jahr 2009. Hier laufen auch rechenintensive Funktionen wie Multi-Touch weitgehend ruckel- und verzögerungsfrei. Im Jahr 2010 waren die mit einer Taktfrequenz von 1 GHz bis dato schnellsten in einem Smartphone verbauten Prozessoren im Toshiba TG01, dem Anfang 2010 erschienenen Google Nexus One sowie dem HTC HD2 und dem HTC Desire mit einem Snapdragon-Prozessor von Qualcomm zu finden. Das Sony Ericsson Xperia X10 und das HP Palm Pre 2 werden ebenfalls mit einem 1-GHz-Prozessor betrieben. Weiterhin besitzt das Samsung Galaxy S einen 1-GHz-Prozessor mit Namen Hummingbird. LG Electronics hat mit dem P990 Optimus Speed/2X im März 2011 das erste Smartphone mit einem Dual-Core-Prozessor veröffentlicht. Später zogen weitere Hersteller nach, wie zum Beispiel Samsung mit dem Modell Galaxy S II, HTC mit dem im Mai 2011 erschienenen Modell Sensation, in dem ein Prozessor des Typs Qualcomm MSM8260 mit einer Taktrate von 1,2 Gigahertz verbaut ist, und Motorola mit dem Gerät Droid Razr. Das Apple iPhone 4s, das im Oktober 2011 erschien, hat ebenfalls einen Dual-Core-Prozessor des Typs Apple A5. 2012 erschienen die ersten Smartphones mit Quad-Core-Prozessoren, deren Prozessoren also vier Kerne aufweisen. Das erste war das HTC One X. Des Weiteren erschienen im Mai das Samsung Galaxy S III mit dem Samsung eigenen Prozessor Exynos 4 Quad und das LG Optimus 4X HD, welches ebenso wie das HTC One X einen Tegra-3-Prozessor des Chipherstellers Nvidia verwendet. Die Dual-Core-Prozessoren Apple A6(X), die im iPad 4 oder iPhone 5 verbaut sind, haben eine ähnliche Leistung wie der Exynos 4 Quad. Ende 2012 bzw. Anfang 2013 wurde die zweite Generation von Quad-Core-Prozessoren veröffentlicht, die im Gegensatz zur ersten Generation (z. B. Tegra 3), die auf Cortex-A9-Kerne setzte, nun oft entweder auf der leistungsfähigeren Cortex-A15-Architektur basierte (Tegra 4) oder auf einem ARM-Befehlssatz kompatiblen Eigendesign beruhte, das von der Leistungsfähigkeit zwischen der Cortex-A9- und Cortex-A15-Architektur anzusiedeln ist, aber sehr energieeffizient ist. (Qualcomm Snapdragon S4 Pro, 600, 800). Der Dual-Core-Prozessor des iPhone 5S, der Apple A7, der im September 2013 erschien, ist der erste 64-Bit-Prozessor auf dem Markt. Moderne Smartphones werden teils mit Acht-Kern-Prozessoren (Octa-Core) ausgestattet, so etwa das HTC One M9 (Snapdragon 810) oder das Samsung Galaxy S6 (Exynos 7420). Dabei ist die Anzahl der Kerne etwa seit dieser Zeit kein Garant mehr für eine hohe Rechenleistung, denn auch Einsteigersmartphones verwenden seither Prozessoren mit vier, acht oder sogar zehn Kernen. Diese bieten jedoch insgesamt keine vergleichbare Leistung zu teureren Geräten, da diese Prozessoren von der Größe her kleiner sind und größere Transistoren verwenden, sodass beispielsweise der Zweikern-Apple A9 des Apple iPhone 6s weitaus mehr Leistung als der Achtkern-Snapdragon 430 des zwei Jahre später veröffentlichten Nokia 6 bietet. Energieverbrauch Die Betriebsdauer hängt ab von der Kapazität des Akkus und dem Stromverbrauch über der Zeit. Im ausgeschalteten Zustand benötigt lediglich die eingebaute Uhr Energie. Im Bereitschaftsmodus mit ausgeschaltetem Display ist ein Smartphone mehrere Tage betriebsbereit, etwa um einen Anruf entgegenzunehmen oder einen Notruf abzusetzen, was im Fall von Notsituationen ohne Möglichkeit, das Gerät nachzuladen, bedeutsam ist. Im Betrieb erhöht sich der Energiebedarf deutlich. Das Empfangen oder auch schnelle Eingeben und Versenden eines SMS benötigt wegen der kurzen Übermittlungsdauer besonders wenig Energie. Spitzenwerte der Mobilfunk-Sendeleistung liegen im Bereich von einem Watt. WLAN benötigt ähnlich viel Energie, auch wenn keine Daten übertragen werden. Zu entfernteren Stationen oder in abgeschatteten Situationen muss mit höherer Leistung gesendet werden. Um möglichst lange telefonieren zu können, sollten WLAN und Bluetooth ausgeschaltet sein, ebenso die Hintergrundbeleuchtung. Dauerhaft aktiviertes GPS zieht Leistung auf Kosten der erreichbaren Stand-by-Zeit. Die typische Leistungsaufnahme für verschiedene Einheiten eines Smartphones haben A. Carroll und G. Heiser ermittelt.[31] (Die Stromaufnahme in mA aus einem typischerweise einzelligen Li-Akku mit 3,7 V Nennspannung (und oft 1500 bis 2200 mAh) ergibt sich durch Division mit 3 bis 3,7.) Idle Mode (betriebsbereit) mW GSM 60 CPU 40 Grafikprozessor 80 LCD (ohne Beleuchtung) 50 Audio 30 Beleuchtung 0?400 Verbrauch im Mittel 300 Datenübertragung mW GSM 800 GPRS 600 WLAN 430 GPS 150 Dual-SIM ? Hauptartikel: Dual-SIM-Handy Vermehrt werden einzelne Modelle oder Modellvarianten mit Dual-SIM- bzw. Double-SIM-Funktion (mitunter auch für 3 oder mehr SIM-Karten[32]) ausgeführt. Das ermöglicht beispielsweise die klare Trennung von privaten und geschäftlichen Gesprächen, entsprechende Erreichbarkeitszeiten und Adressverzeichnisse. Im Inland können so zwei Tarife/Verträge nebeneinander oder bei Reise ins Ausland überwiegend die SIM eines kostengünstigeren lokalen Anbieters genutzt werden. Die Plätze können auch unterschiedliche SIM-Formate unterstützen. Herstellerstrategien Wechselbarkeit des Akkus Viele Hersteller, darunter Apple, HTC, LG, Motorola, Nokia, Samsung und Sony, verbauen bei vielen neuen Smartphones mittlerweile den Akku in einer Art, dass ein Wechsel nur mit hohem Aufwand bzw. nicht zerstörungsfrei möglich ist. Das kann zu einer verkürzten Lebensdauer der Geräte führen und ist problematisch beim Recycling, da die notwendige Entfernung des Akkus zur Zeit (Stand 2012) unwirtschaftlich ist. Daher tritt der ehemalige Präsident des Umweltbundesamts Jochen Flasbarth für ein Verbot fest verbauter Akkus ein.[33] Updatepolitik Verbraucherschützer beklagen die mangelnde Updatepolitik der Hersteller. Nur die Topmodelle erhalten größere Aktualisierungen, während die meisten anderen Geräte leer ausgehen. Das Problem ist insbesondere bei Android ausgeprägt. Da fehlende Updates u.?a. ein Sicherheitsrisiko darstellen, sehen Verbraucherschützer hier einen Fall von geplanter Obsoleszenz. Zudem wird die schlechte Informationspolitik der Hersteller über ihre Updatepolitik kritisiert. Der Verbraucher erfährt in den meisten Fällen nicht ob und wie viele Updates für das Gerät geplant sind. Daher verklagte Anfang 2016 die niederländische Verbraucherzentrale den Hersteller Samsung ungenügende Angaben zur Update-Versorgung neuer Android-Geräte zu machen.[34] Ausmaß der Smartphone-Nutzung in Deutschland Laut einer Befragung im Auftrag des Digitalverbands Bitkom[35] nutzten in August 2017 über drei Viertel (78 Prozent) aller Bundesbürger ab 14 Jahren ein Smartphone. Das entspricht etwa 53 Millionen Menschen. In der Altersgruppe der 14- bis 29-Jährigen nutzten 95 Prozent ein Gerät. In der Altersgruppe der 30- bis 49-Jährigen waren 93 Prozent Smartphone-Nutzer, bei den 50- bis 64-Jährigen waren es 88 Prozent. Unter Bundesbürgern älter als 65 Jahre nutzte rund jeder Vierte (27 Prozent) ein Smartphone. Im Februar 2019 wurde die Zahl der Smartphone-Nutzer in Deutschland auf fast 65 Millionen geschätzt.[36][37] Im Jahre 2016 wurden in Deutschland 24,2 Millionen Smartphones verkauft. Dabei lag der Umsatz bei 9,4 Milliarden Euro.[35] Chancen und Risiken der Smartphone-Nutzung Die ?Internet-AG Enigma? an der Johann Wolfgang Goethe-Universität Frankfurt am Main beschäftigte sich 2013 mit der Frage, wie Smartphones und Tablets das soziale Leben beeinflussen. Dabei folgten die Autoren einem Leitsatz Karl Steinbuchs: ?Nichts zwingt den Menschen, die ungeheuren Möglichkeiten der Wissenschaft und Technik zu seinem Unheil zu verwenden, alle Wege sind offen, Wissenschaft und Technik zu seinem Wohle zu verwenden.?[38] Prinzipiell positiv sei es zu bewerten, dass sich die Gesellschaft in eine ?informierte Gesellschaft? verwandele (Smart Devices ermöglichten den Zugang zu grenzenlosem Wissen, immer und überall); Smart Devices dem Nutzer ermöglichten, nicht nur Konsument von Inhalten, sondern auch deren Produzent zu sein (Texterstellung, Fotos, Videos); Reisevorbereitungen und das Reisen selbst erleichtert würden; immer und überall Musik gehört werden und Videos angeschaut werden könnten; zeitversetztes Fernsehen möglich sei; es keine Hindernisse mehr gebe, eine Vielzahl von Fotos aufzunehmen; zum Einkaufen nicht mehr das Haus verlassen werden müsse; ständig Gesundheitsdaten erhoben und weitergeleitet werden könnten; Änderungen im bzw. am eigenen Haus nicht mehr die Anwesenheit von Menschen voraussetzten; deren Anwesenheit könne potenziellen Einbrechern dennoch vorgetäuscht werden; soziale Kontakte aus der Ferne in Echtzeit und preiswert gepflegt werden könnten. Diese Vorteile seien schwerwiegender als die von der Internet-AG konzedierten Nachteile. In seinem Buch Die Smartphone-Epidemie. Gefahren für Gesundheit, Bildung und Gesellschaft vertritt der Neurologe und Medienpsychologe Manfred Spitzer die These, dass Smartphones in besonderer Weise zur digitalen Demenz bei denen beitrügen, die das Medium exzessiv nutzten. Dadurch nehme die durchschnittliche Intelligenz der Menschen in denjenigen Ländern ab, in denen die Digitalisierung starke Fortschritte mache. Die häufige Benutzung von Smartphones führt Spitzer zufolge zu Bewegungsmangel, Adipositas, Haltungsschäden, Diabetes, Hypertonie, Myopie, Insomnie, einer Erhöhung der Zahl von Unfällen und tskrankheiten, Angst ("Fear of missing out" / "Fomo"), Mobbing, Aufmerksamkeitsstörungen, Depression / Suizidalität, Empathieverlust, verminderter Lebenszufriedenheit, Alkohol- und Drogensucht, Smartphone- und Online-Spiele-Sucht, geringerer Bildung, geringerem gegenseitigen Vertrauen, verminderter Fähigkeit zur Willensbildung, weniger Naturerleben, geringerer Förderung von Nachhaltigkeit, mehr Anonymität, weniger Solidarität, mehr sozialer Isolation und Einsamkeit, geringerer Gesundheit der Bevölkerung und einer Gefährdung der Demokratie.[39] Physische Gesundheit Mobiltelefone im Allgemeinen Siehe Diskussionen zu Gesundheitsgefahren von Mobiltelefonen. Smartphones Die ÄrzteZeitung unterzog im Dezember 2018 sieben Behauptungen über Gesundheitsrisiken, die von Smartphones ausgehen sollen, einem Faktencheck. Als zutreffend wurden die Aussagen bewertet, wonach Smartphones süchtig machen können; Smartphones dem Rücken und den Händen des Nutzers schaden; Nutzer, die abends lange auf ihr Smartphone schauen, dazu neigen, schlecht einzuschlafen. Möglich, aber nicht erwiesen sei es, dass das blaue Licht des Smartphones die Netzhaut der Augen schädigen und sogar zur Erblindung führen könne; die elektromagnetische Strahlung von Smartphones Krebs verursachen könne. Vermutlich falsch seien die Behauptungen, wonach schon allein der WLAN-Betrieb eines Smartphones schädliche Strahlung verursachen könne; ein Handy in der Hosentasche bei Männern die Fruchtbarkeit reduzieren könne.[40] Folgen der Überbeanspruchung des Daumens Das exzessive Nutzen von Smartphones überfordert die Daumen. Das Repetitive-Strain-Injury-Syndrom beispielsweise beschreibt einen anhaltenden Schmerz im Daumen. Dieser wird dadurch verursacht, dass der Daumen anatomisch gesehen nur zum Gegenhalten für die anderen Finger ausgelegt sei, nicht aber für feinmotorisches Tippen auf der Smartphone-Oberfläche.[41] Veränderungen des Gehirns, Intelligenzverlust Der Neurologe Hans-Peter Thier bezweifelt, dass es den Sachverhalt ?digitale Demenz? gebe: ?Unter Demenz versteht die Medizin einen Verlust ursprünglich verfügbarer kognitiver Fertigkeiten ? ein Verlust des Gedächtnisses, eine Einschränkung des Denkvermögens, Orientierungsstörungen und letztendlich einen Zerfall der Persönlichkeitsstruktur. Demenzen können viele Ursachen haben. Ein Beispiel sind Hirnschäden infolge von Durchblutungsstörungen. Gemeinsamer Nenner der Ursachen sind Veränderungen der Struktur und der physiologischen Prozesse im Gehirns [sic!], so dass sie weit vom Normalen abweichen. Was immer die Nutzung digitaler Medien im Gehirn machen mag ? es gibt keinerlei Evidenz dafür, dass sie zu fassbaren krankhaften Veränderungen im Gehirn führt.? Einem Gehirn könne man durch keine Untersuchungsmethode anmerken, ob es zu einem intensiv digitale Medien Nutzenden gehöre, so Thier.[42] Es gebe im Gegenteil Hinweise darauf, dass sich bei Senioren Surfen im Internet positiv in der Alzheimer-Prophylaxe auswirke. Forscher der Universität Zürich haben allerdings in einer Studie herausgefunden, dass die ständige Nutzung eines Smartphones das Gehirn insofern verändere, als durch häufige Smartphonenutzung der somatosensorische Kortex des Gehirns verändert werde, insbesondere jene Bereiche, welche für Daumen und Zeigefinger zuständig seien. Das hätten Messungen per Elektroenzephalografie ergeben.[43] Geräte als Keimträger Wissenschaftler der Fakultät ?Medical Life Sciences? der Hochschule Furtwangen haben sich der weit verbreiteten These angenommen, wonach sich auf der Bildschirmoberfläche von Smartphones verschiedene Arten von krankheitserregenden Keimen und Bakterien anhäufen und so die Gesundheit des Nutzers gefährden könnten. Mehrere Labortests haben ergeben, dass sich durchschnittlich etwa 100 verschiedene sowohl schädliche als auch ungefährliche Bakterienarten dort sammeln, jedoch sei die Bakterienanzahl beispielsweise auf einer Küchenarbeitsfläche in etwa doppelt so hoch. Unfallgefahr Eine Studie einer amerikanischen Versicherung ergab, dass fast die Hälfte aller Autofahrer zwischen 18 und 29 Jahren das Internet nutzen, während sie ein Auto fahren. 2010 starben in den USA 3092 Menschen, und es wurden 400.000 Menschen verletzt, weil der Fahrer abgelenkt war.[44] In Deutschland ist nach Paragraph 23 der StVO jede Nutzung eines Smartphones verboten, bei der das Gerät ?aufgenommen oder gehalten? werden muss. Verstöße werden mit 100 Euro Bußgeld und einem Punkt in Flensburg geahndet.[45] Auch Unfälle von und mit Fußgängern nehmen zu. Beim Ablesen des in Brusthöhe gehaltenen Bildschirms wird der Kopf in der Regel abgesenkt und dadurch das Gesichtsfeld von oben geradeaus bis in die Waagrechte durch die Augenbrauen und zusätzlich auf den Ort des Aufsetzen der nächsten zwei Schritte unmittelbar vor einem durch das Gerät abgeschattet. Die in dichtem Verkehr, gerade auch im Fußgängergewühl, fast dauernd geübte Kommunikation durch Blickkontakt oder früher Andeutung der beabsichtigten Bewegungsroute entfällt dadurch. Die sicherheitsrelevante Vorhersehbarkeit des Verhaltens durch andere Verkehrsteilnehmer nimmt dadurch stark ab oder wird zumindest sehr unstet. Dazu kommt die Fokussierung der Aufmerksamkeit auf das Gerät, wodurch irreguläre Gefahren sogar innerhalb des eingeschränkten Gesichtsfelds, wie ein auf den Gehsteig zufahrendes Auto oder ein rechtskonform am Gehsteig rollender Inlineskater, nur sekundär, langsamer wahrgenommen werden und später die Aufmerksamkeitsschwelle überschreiten. Besonders hohe Belegung der Sinne erfolgt, wenn parallel zur Bildschirmbetrachtung auch graduell die Ohren abdichtende Ohrhörer eingesetzt sind und zusätzlich laute Musik gehört wird.[46] In der Jugendsprache wird ein Fußgänger mit diesem Verhalten als Smombie (Kofferwort aus Smartphone und Zombie) bezeichnet[47]. Um Gefahren, wie das Übersehen einer roten Fußgängerampel durch die Nutzung des Smartphones mit abgesenktem Kopf, zu verringern, haben einige Städte an Fußgängerampeln zusätzlich Bodenampeln installiert, welche durch auf dem Boden angebrachte, rote Blinklichter zeigen, ob die Fußgängerampel auf rot oder grün steht. Ähnliche Gefahren treten bei Sport, Flug oder Arbeit auf. Andererseits kann Musik sportliche Dauerleistung fördern und auch Einschlafen verhindern, gerade auch bei einer Autofahrt hinter monotonen Lärmschutzwänden, die landschaftliche Reize verbergen. Abstürze zu Fuß bei gewagten Selfies, besonders an Geländekanten und Geländern, werden genauso berichtet, wie Autounfälle, die durch Filmen und Fotografieren verursacht werden. Dies tritt mit anderen Kameras ohne (großen) Bildschirm, wie Actioncams, allerdings ebenfalls auf. Siehe auch: Freisprecheinrichtung#Freisprecheinrichtung in Kraftfahrzeugen Siehe auch: Selfie#Unfälle und Todesfälle Psychische Gesundheit Eine große Gefahr stellt die psychische Abhängigkeit vieler Smartphone-Nutzer von ihren Geräten dar. "Fear of missing out" ("Fomo") Eine häufig bei Smartphone-Benutzern anzutreffende Angst besteht darin, dass die Betreffenden befürchten, etwas Wichtiges zu verpassen, wenn sie nicht innerhalb von Sekunden in der Lage sind, auf Signale ihres Gerätes zu reagieren (siehe "Fear of missing out"). Der rationale Kern dieser Angst besteht darin, dass in einer sich beschleunigenden Welt allgemein das Verständnis für eine ?zu langsame? Reaktion eines Nutzers digitaler Medien tendenziell abnimmt. Bei Inanspruchnahme der ?normalen? Post kann beispielsweise frühestens nach zwei Tagen eine schriftliche Reaktion des Angeschriebenen vorliegen. Nebenwirkungen der ständigen Reaktionsbereitschaft sind eine eingeschränkte Aufmerksamkeit für andere Aufgaben und physisch anwesende Gesprächspartner sowie häufige Unterbrechungen, die die Produktivität und die Qualität der zu erledigenden Arbeiten verringern. Insbesondere eigene Kinder leiden unter dem Mangel an Aufmerksamkeit ihrer zumeist ohnehin nicht sehr lange physisch anwesenden Eltern und neigen (aus der Sicht der Eltern) dazu, ?schwierig? zu werden. In Hamburg demonstrierten im September 2018 ca. 150 Kinder gegen Eltern, die eher ihrem Smartphone als ihren Kindern Zeit und Aufmerksamkeit widmen.[48] Smartphone-Spielsucht Die Möglichkeit, per Smartphone (auch online) an Spielen teilzunehmen, birgt ein hohes Suchtpotenzial. Der Reporter der ?Panorama?-Sendung der ARD vom 13. Dezember 2018 stellte z. B. fest, dass er während der fünf Minuten, in denen er sich mit einem an sich harmlosen Smartphone-Spiel beschäftigte, genau so oft gelobt worden sei wie in seinem analogen Leben in einem ganzen Monat.[49] Die systematische Stimulierung des Belohnungszentrums im Gehirn der Spieler führe auch dazu, dass die Bereitschaft entstehe, reales Geld in Smartphone-Spiele zu investieren.[50] Das sei auch Kindern möglich. In Deutschland greift in solchen Fällen weder das gesetzliche Verbot, Minderjährige an Glücksspielen teilnehmen zu lassen, noch das Verbot, Minderjährigen das Schuldenmachen zu erlauben. Insofern werde das Jugendschutzrecht in Deutschland ausgehebelt. Die WHO erkannte im Juni 2018 an, dass "Gaming Disorder" (deutsch: Onlinespielsucht) eine dem unkontrollierten Glücksspiel vergleichbare Gesundheitsstörung sei. "Gaming Disorder" wurde in den Katalog ICD-11 aufgenommen. Seit Juni 2018 kann ein von "Gaming Disorder" persönlich Betroffener auf Kosten seiner Krankenkasse therapiert werden.[51] Gegenmaßnahmen der Smartphone-Hersteller Smartphone Hersteller gehen seit 2018 direkt auf die Problematik der Smartphonesucht ein. Den Anfang machte Google im Mai 2018 bei der Konferenz Google I/O 2018, als eine Systemerweiterung namens "Digital Wellbeing" angekündigt wurde, die inzwischen auf allen Geräten mit Android 9.0 verfügbar ist und helfen soll, Suchtverhalten zu reduzieren.[52][53] Ebenso hat Apple kurz darauf in iOS 12 unter dem Namen "Screentime" bzw. "Bildschirmzeit" entsprechende Features eingeführt.[54] Gemeinsam ist beiden Systemerweiterungen, dass die maximale Zeit, die innerhalb jeder individuellen App verbracht werden darf, gemessen und limitiert werden kann.[55] Google bietet mit der Digital Wellbeing Erweiterung ab Android 9.0 zusätzlich die Option, manuell oder zeitgesteuert das Smartphone Display auf Graustufen umzuschalten, was den Suchtfaktor deutlich reduzieren soll.[56] Auf iOS ist dies auch über die Schnellfunktion möglich, muss aber manuell eingerichtet werden.[57] Ebenso kann das Display auch auf älteren Versionen von Android auf Graustufen umgestellt werden, jedoch ist diese Möglichkeit deutlich aufwändiger.[58] Gefährdungen der Rechtsstaatlichkeit und der Demokratie Aushöhlung des Rechts auf informationelle Selbstbestimmung Personenbezogene Daten sind nach der Datenschutz-Grundverordnung der Europäischen Union und nach Art. 8 der EU-Grundrechtecharta geschützt. Im Grundgesetz für die Bundesrepublik Deutschland befasst sich zwar kein eigener Artikel mit dem Recht auf informationelle Selbstbestimmung; aber laut ständiger Rechtssprechung des Bundesverfassungsgerichts muss dennoch von der Existenz eines solchen Grundrechts ausgegangen werden. Insbesondere die unbemerkte und nicht beabsichtigte Weitergabe personenbezogener Daten eines Smartphonebenutzers ist rechtlich bedenklich. Auch die ausdrückliche Zustimmung zur Sammlung personenbezogener Daten kann Probleme mit sich bringen, sofern der Zustimmende sich nicht über die Tragweite seiner Entscheidung im Klaren ist (indem z. B. wegen bislang unerkannter gesundheitlicher Risiken seine Krankenversicherungsbeiträge erhöht werden könnten, oder indem ihm seine Arbeitsstelle gekündigt werden könnte). Activity tracking Activity Tracker ermöglichen nicht nur die Kontrolle und Speicherung von Gesundheitsdaten, sondern auch die Weiterleitung dieser Daten an Dritte, z. B. an Ärzte. Dabei handelt es sich um eine Form der Selbstoffenbarung (im Sinne der Kommunikationstheorie Friedemann Schulz von Thuns), der sich der Versender der Daten nicht entziehen kann, solange er die Apparatur benutzt und auf Sendung ist (Paul Watzlawick: ?Man kann nicht nicht kommunizieren.?). Problematisch ist es, dass Laien oft nicht die Bedeutung dessen verstehen, was ihr Körper ?über sie aussagt?. Abhören und Spionage Smartphones können unbemerkt als Abhörinstrumente benutzt werden. Wenn ein Besitzer sein Smartphone ständig eingeschaltet in Körpernähe aufbewahrt, kann er bequem lückenlos überwacht werden. Ortsbestimmung Problematisch ist die Bestimmbarkeit des Aufenthaltsorts eines Smartphone-Nutzers insbesondere dann, wenn er ein berechtigtes Interesse daran hat zu verhindern, dass Dritte ihr entsprechendes Wissen gegen ihn verwenden können (Alibi-Komplex). Eine Ortsbestimmung eines Smartphones ist per GPS oder (weniger genau, dafür aber Energie sparend) über das Mastennetz von Netzwerkbetreibern bzw. per WLAN möglich. Durch die Verbindung eines Smartphones mit einem GPS-System ?weiß? es, wo es sich befindet (Positionsbestimmung), aber es kann auch aus der Ferne geortet werden. Voraussetzung hierfür ist, dass das Smartphone eingeschaltet ist und dass der GPS-Empfänger in ihm ?seinen? Satelliten in der Erdumlaufbahn gefunden hat, was unter ungünstigen Umständen bis zu zwölf Minuten dauern kann.[59] Die Speicherung des Aufenthaltsorts eines Smartphones (und des Standorts seines Nutzers, sofern sich das Gerät in der Nähe von dessen Körper befindet) sowie der Nutzungszeiten und Kommunikationspartner durch den zuständigen Netzwerkbetreiber kann zu Problemen für die Besitzer führen, insbesondere dann, wenn das Gerät infolge einer Manipulation nur scheinbar ausgeschaltet ist. Sicherheit vor unerwünschten Nachforschungen schafft nur (sofern ohne Beschädigung des Geräts möglich) die Herausnahme des Akkus. Ökologische Probleme ?An Handys und Tablet-PCs ist nichts nachhaltig.?, urteilte 2014 Eva Wolfangel, Mitarbeiterin bei Spektrum der Wissenschaft.[60] Durch hochgiftige Substanzen wie Schwermetalle (z. B. Quecksilber, Cadmium, Chrom und Blei) wird die Umwelt durch Smartphones stark belastet. Pro Kopf werden durchschnittlich 21,6 Kilogramm Elektronikschrott verursacht. Das liegt unter anderem daran, dass beispielsweise in Deutschland ein Smartphone durchschnittlich nur 18 Monate lang benutzt wird, bevor es durch ein neues ersetzt wird. Die Entsorgung des Elektronikschrotts erfolgt in der Regel in Entwicklungsländern, wo Erdboden, Luft und Menschen diesen giftigen Substanzen dann ausgesetzt sind. Daher werden entsprechende Alternativen vorgeschlagen.[61] Künstlerische Rezeption Der US-amerikanische Fotograf Eric Pickersgill (* 1986) hat in der Serie Removed Menschen in Alltagssituationen abgebildet, aus denen er die personal devices entfernen hat dürfen, und in denen die Personen dennoch ihre Körperposition einhalten. Er zeigt damit, wie sehr sich Menschen dem Gerät zuwenden, sogar, wenn Mitmenschen körperlich nahe sind.[62] Bereits 1949 beschrieb Ernst Jünger in seinem futuristischen Roman Heliopolis. Rückblick auf eine Stadt den Phonophor, der Funktionen eines Smartphones vorwegnahm. Rechnernetz Zur Navigation springen Zur Suche springen Ein Rechnernetz, Computernetz oder Computernetzwerk ist ein Zusammenschluss verschiedener technischer, primär selbstständiger elektronischer Systeme (insbesondere Computer, aber auch Sensoren, Aktoren, Agenten und sonstige funktechnische Komponenten), der die Kommunikation der einzelnen Systeme untereinander ermöglicht. Ziel ist hierbei z. B. die gemeinsame Nutzung von Ressourcen wie Netzwerkdruckern, Servern, Dateien und Datenbanken. Wichtig ist auch die Möglichkeit zur zentralen Verwaltung von Netzwerkgeräten, Netzwerkbenutzern, deren Berechtigungen und Daten. Besondere Bedeutung hat heute auch die direkte Kommunikation zwischen den Netzwerknutzern (Chat, VoIP-Telefonie etc.). Die Kommunikation erfolgt über verschiedene Protokolle, die mit dem ISO/OSI-Modell strukturiert werden können. Obwohl in der Praxis kein Rechnernetz das ISO/OSI-Modell vollständig abbildet, ist es von entscheidender Bedeutung für das Verständnis von Rechnernetzen, da hierbei aus kleinen grundlegenden Strukturen durch Verknüpfung größere und komplexere Strukturen gebildet werden. Dabei greifen höhere (komplexere) Protokollschichten auf die Funktionalitäten einfacherer darunter liegender Protokollschichten zu. Ein wichtiges Prinzip dabei ist, dass den meisten Protokollschichten jeweils sogenannte Nutzdaten zum Transport übergeben werden können. Die Protokollschicht fügt zu diesen Nutzdaten (deren Inhalt sie weitgehend ignoriert) vorne und teilweise hinten weitere Daten an, die für die Abwicklung des Transportes durch die Protokollschicht wichtig sind. Jedoch gibt es auch hiervon Ausnahmen, da einige Protokolle nicht dazu gedacht sind, fremde Nutzdaten zu transportieren, sondern ausschließlich als eigenständige Informationssysteme für bestimmte Aufgaben fungieren. Die allgemein bekannteste Netzstruktur ist das Internet, und die bekanntesten Protokolle sind das TCP (Transmission Control Protocol) und das IP (Internet Protocol), jedoch spielt auch im Internet eine Reihe weiterer Protokolle wichtige Rollen. Das Internet selbst ist kein homogenes Netz, sondern besteht aus einer Vielzahl teils recht unterschiedlich konzipierter Teilnetze (Subnetze), die nur die oberen Protokollschichten gemeinsam haben und die Nutzdatenübertragung auf den unteren Protokollschichten teilweise sehr unterschiedlich handhaben. Als Zentralrechner oder Hauptrechner wird innerhalb eines Rechnernetzes derjenige Computer ? meist ein Großrechner ? bezeichnet, der den übrigen angeschlossenen Rechnern (etwa Arbeitsplatzrechnern oder Terminals) bzw. den darauf betriebenen Programmen Daten, Dienste, Systemprogramme, Anwendungsprogramme u. Ä. zur Verfügung stellt. Inhaltsverzeichnis Topologien Diagramm: Netz-Topologie ? Hauptartikel: Topologie (Rechnernetz) Unter der Topologie versteht man die Art, wie die verschiedenen beteiligten Komponenten (also zumeist Rechner) im Netz durch physische oder logische Leitungswege verbunden sind. Um mehrere Rechner in einem Rechnernetz einzubinden, benötigt man eine gute Planung, welche durch die Einteilung der Topologie vereinfacht wird. So bilden sich Rechnernetze, in denen es Verbindungen und Knoten gibt, über die man ggf. über mehrere Zwischenpunkte von jedem Bereich des Netzes jeden anderen Bereich des Netzes erreichen kann. Es gibt eine Reihe von Grundstereotypen, die so in dieser klaren Form jedoch selten in der Praxis auftreten. Bei der Stern-Topologie gibt es einen zentralen Verteilpunkt, der ggf. alles kontrollieren kann und ohne den nichts funktioniert. Diese Topologie wird eigentlich nur in sehr kleinen Netzen verwendet, zum Beispiel Heimnetzen oder bei LAN-Partys. Eine Verbindung mehrerer Sterntopologien an ihren Konzentrationspunkten wird auch als erweiterte Sterntopologie bezeichnet. Bei der Baum-Topologie benutzt man einen ähnlichen Ansatz, den man jedoch hierarchisch staffelt. Der ?oberste? Rechner hat die Kontrolle über alle anderen, die Macht schrumpft, je weiter unten man im Baum sitzt. In der Ring-Topologie hat jeder Rechner eine Position in einem Ring und ist nur mit seinen Nachbarn verbunden. Das hat zur Folge, dass der Ausfall eines Rechners das Rechnernetz lahmlegt. Bei der Bus-Topologie greifen alle beteiligten Rechner auf ein gemeinsam und von allen genutztes Medium zu, wodurch es zu Kollisionen auf diesem kommen kann. Das vermaschte Netz ist eine Form, in der jeder Rechner mit mehreren Nachbarn verbunden ist und in dem redundante Wege existieren, so dass selbst beim Ausfall einer Leitung das Netz noch über eine andere Leitung verbunden bleibt. Die Zell-Topologie spielt bei Funknetzen mit ihren speziellen Zugriffseigenschaften eine besondere Rolle. In der Praxis treten fast immer Mischformen dieser Stereotype auf und es gibt noch eine Reihe von Bezeichnungen für bestimmte Spezialformen. Als Smart Network oder Smart Grid wird beispielsweise die spontane, selbstorganisierte Vernetzung beliebiger Geräte bezeichnet. Organisatorische Abdeckung (Netzarchitektur) Dieses Kriterium wird oft benutzt, da es weniger kompliziert erscheint als andere Eigenschaften von Netzen. In der Praxis hat diese Unterscheidung aber nur begrenzte Bedeutung. Lokale Netze Body Area Network (BAN) Wireless Body Area Network (WBAN) Personal Area Network (PAN) Wireless Personal Area Network (WPAN) als Begriff Local Area Network (LAN) Wireless LAN (WLAN) als Begriff Nichtlokale Netze Metropolitan Area Network (MAN) Wide Area Network (WAN) Global Area Network (GAN) Virtual Private Network (VPN) Storage Area Network (SAN) Übertragungsweg Leitungsgebundene Netze Ethernet ? Hauptartikel: Ethernet Die verbreitetste Technik bei leitungsgebundenen Netzen ist das Ethernet, das vor allem in lokalen Firmennetzen und Heimnetzen Verwendung findet. Es wird heute mit Kupferkabeln in den Ausprägungen 10BASE-T, 100BASE-TX und 1000BASE-T erstellt und verwendet. Dabei bezeichnet die Zahl jeweils die theoretische maximale Übertragungsgeschwindigkeit (Kanalkapazität) von 10, 100 oder 1000 Mbit pro Sekunde. Das T sagt aus, dass es sich um ein verdrilltes Kupferkabel handelt (Twisted Pair). Je nach Geschwindigkeit ist ein Kabel der entsprechenden Qualität nötig, die nach Kategorien standardisiert ist. Für 100 Mbit ist dies z. B. CAT5, bei 1000 Mbit ist CAT5e, CAT5+ oder CAT6 zu verwenden. Es gibt ebenfalls unterschiedliche Standards, um Ethernet über Glasfaserverbindungen zu realisieren, z. B. 10BASE-FL, 100BASE-FX, 1000BASE-SX/-LX und verschiedene 10-Gigabit-Standards beginnend mit ?10GBASE-?. Das ursprüngliche Zugriffsverfahren bei Ethernet ist CSMA/CD (Carrier Sense Multiple Access / Collision Detection), wobei jeder Rechner erst überprüft, ob die Leitung (Carrier) frei ist und, wenn dies der Fall ist, sendet. Es kann sein, dass ein weiterer Rechner dasselbe tut und es zur Kollision kommt. Sobald diese Kollision erkannt wird (Collision Detection), brechen beide Rechner das Senden ab und beide probieren es zu einem zufälligen Zeitpunkt später erneut. Die Adressierung erfolgt mittels der MAC-Adresse. Die inzwischen weitaus häufiger anzutreffende Form ist die eines ?geswitchten? Netzwerks, bei dem intelligentere Konzentratoren (Switches) verwendet werden, die einen kollisionsfreien Vollduplex-Betrieb erlauben und in Summe einen wesentlich höheren Gesamtdurchsatz ermöglichen. Token Ring ? Hauptartikel: Token Ring Einen anderen Weg der Zugriffskontrolle ging das Token-Ring-Netz, das vor allem für Netze mit speziellen Qualitätsanforderungen benutzt wird. Der Vorteil von Token-Ring-Netzen ist, dass jeder Rechner nach spätestens einer bestimmten Zeit etwas senden kann. Dazu wird ein sogenanntes Token (zu deutsch Pfandmünze) in Form eines kleinen Informationspaketes herumgereicht. Wer das Token hat, darf eine Weile Nutzdaten senden, hört dann wieder auf und gibt das Token weiter. Die Reihenfolge, in der es weitergegeben wird, ist genau festgelegt und ringförmig, wodurch man das Token immer wieder bekommt. Token-Ring-Netze sind oft so aufgebaut, dass jeder Rechner jeweils mit seinen zwei Nachbarn im Ring direkt verbunden ist und diesen entweder das Token weiterreicht oder eine Information übergibt. Es gibt auch eine Variante, die sich Token Ring over Ethernet nennt. Dabei hängen alle Rechner in einem gemeinsam genutzten Ethernet zusammen, aber geben sich dort jeweils ein Token reihum weiter (Token-Passing), wodurch Kollisionen vermieden werden und die Leitung besser genutzt wird. Das Komplizierte an diesem virtuellen Ring ist, dass erst einmal geklärt werden muss, welche Rechner existieren und welche Reihenfolge sie im virtuellen Ring einnehmen. Zudem muss man erkennen, wenn neue Rechner hinzukommen oder bestehende im Ring verschwinden. Wichtig sind die Eigenschaften von Token-Ring-Netzen in sicherheitskritischen Netzen, in denen es darauf ankommt, präzise zu wissen, wie lange es maximal dauert, bis eine Nachricht gesendet werden kann. Dies lässt sich leicht anhand der Anzahl der Rechner, also an der Länge des Rings ermitteln. Solche Netze werden zum Beispiel in der Automobiltechnik und in der Finanzbranche für kritische Systeme eingesetzt. PowerLAN ? Hauptartikel: PowerLAN Das PowerLAN macht sich das vorhandene Stromnetz zunutze, um ein Netzwerk aufzubauen. Spezielle Adapter stellen dazu über die Steckdose die Verbindung zwischen dem Stromnetz und einem Netzwerkgerät her. Die zu übertragenden Informationen werden dazu auf der Sendeseite auf die Leitung zusätzlich aufmoduliert und auf der Empfängerseite wieder demoduliert. Mindestens zwei PowerLAN-Adapter werden benötigt, um ein Netzwerk aufzubauen. Aus technischer Sicht handelt es sich bei dieser leitungsgebundenen Vernetzung um eine Trägerfrequenzanlage. Da die übertragenen Daten ähnlich wie bei einem Funknetz frei im Stromnetz verteilt werden, spielen Sicherheitsaspekte auch hier eine wichtige Rolle. Daher kommt in der Regel eine Verschlüsselung der Informationen zum Einsatz. Weiterhin sind Störeinflüsse zu berücksichtigen, die einerseits vom PowerLAN als Trägerfrequenzanlage ausgehen, umgekehrt jedoch auch von außen auf dieses einwirken und die Übertragung beeinflussen können. Funknetze Verbreitete Techniken bei Funknetzen sind: Infrastruktur-Netze Mobilfunknetze wie GSM, UMTS oder LTE WLANs im Infrastruktur-Modus, das heißt mit Schnittstelle zu einem leitungsgebundenen Netz mittels Basisstation. Am weitesten verbreitet sind WLANs vom Typ IEEE 802.11 Ad-hoc-Netze (MANET) ? Hauptartikel: Ad-hoc-Netz WLANs vom Typ IEEE 802.11 im Ad-hoc-Modus. In diesem Modus kommunizieren die Geräte des Netzes ohne zusätzliche Infrastruktur. die mit sehr geringer Reichweite Geräte in unmittelbarer Umgebung verbinden, sogenannten Wireless Personal Area Networks (WPAN) Bluetooth Netzstrukturen für Sensornetze, aktuelles Forschungsgebiet Physikalische Komponenten (Hardware) Zur physischen und logischen Umsetzung der Vernetzung sind neben passiven Komponenten (Antennen, Kabel, Glasfasern, Steckverbinder, Anschlussdosen) in der Regel auch aktive Komponenten erforderlich, um die Funktionalität zu gewährleisten. Beispiele sind Gateway, Router, Switch, Accesspoint, früher auch Hub, Repeater und Bridge. Solche Komponenten können in manchen Fällen auch als virtuelle (Software-) und nicht als physikalische Hardwarelösung realisiert sein. Sprachliche Betrachtung von Netz und Netzwerk In der deutschen Sprache werden sowohl die Begriffe Netz (etwa in Stromnetz, nicht Stromnetzwerk; Telefonnetz) verwendet, als auch Netzwerk (zum Beispiel in der Elektrotechnik, oder in soziales Netzwerk[1]). Computernetzwerk wird aber manchmal auf eine falsche Übersetzung des englischen Wortes network zurückgeführt, welches dem deutschen Wort Netz entspreche und durch die Computerfachsprache in den deutschen Wortschatz gefunden habe.[2] Das Wort fand jedoch bereits im 19. Jahrhundert Eingang in das Deutsche Wörterbuch.[3] Die Übersetzung als Netzwerk bringt aber auch Wörter hervor, die eine Unterscheidung ermöglichen, siehe die Netzwerkkarte und verschiedene Netzkarten bzw. das Netzkabel zur Stromversorgung und das Netzwerkkabel im LAN. Die DIN ISO 2382-1 bis -25 ?Begriffe der Informationstechnik? definieren nur den Begriff Netz, nicht Netzwerk.[4] Siehe auch Internetworking Netzwerkdienst Netzwerksicherheit Netzwerktechniker Feldbus (Rechnernetze für die Automatisierungstechnik) Diffusionsnetz Wireless Local Area Network Wireless Local Area Network [?wa??l?s l??kl ?????? ?n?tw??k] (Wireless LAN bzw. W-LAN, meist WLAN; deutsch drahtloses lokales Netzwerk) bezeichnet ein lokales Funknetz, wobei meist ein Standard der IEEE-802.11-Familie gemeint ist. Für diese engere Bedeutung ist in manchen Ländern (z. B. USA, Großbritannien, Kanada, Niederlande, Spanien, Frankreich, Italien) weitläufig beziehungsweise auch synonym der Begriff Wi-Fi gebräuchlich. Verwendet wird der Begriff häufig auch irreführend als Synonym für WLAN-Hotspots bzw. kabellosen Internetzugriff.[1] Im Gegensatz zum Wireless Personal Area Network (WPAN) haben WLANs größere Sendeleistungen und Reichweiten und bieten im Allgemeinen höhere Datenübertragungsraten. WLANs stellen Anpassungen der Schicht 1 und 2 des OSI-Referenzmodells dar, wohingegen in WPANs z. B. über eine im Netzwerkprotokoll vorgesehene Emulation der seriellen Schnittstelle und PPP beziehungsweise SLIP eine Netzverbindung aufgebaut wird. Bei WLAN wird heute meist das Modulationsverfahren OFDM verwendet. WLANs können ? je nach Hardwareausstattung und Bedürfnissen der Betreiber ? in verschiedenen Modi betrieben werden: Infrastruktur-Modus Der Infrastruktur-Modus ähnelt im Aufbau dem Mobilfunknetz: Ein Wireless Access Point, oft in Form eines Routers, übernimmt die Koordination aller Clients und sendet in einstellbaren Intervallen (üblicherweise zehnmal pro Sekunde) kleine Datenpakete, sogenannte ?Beacons? (engl. ?Leuchtfeuer?, vgl. dt. ?Bake?), an alle Stationen im Empfangsbereich. Die Beacons enthalten u. a. folgende Informationen: Netzwerkname (?Service Set Identifier?, SSID), Liste unterstützter Übertragungsraten, Art der Verschlüsselung. Dieses ?Leuchtfeuer? erleichtert den Verbindungsaufbau ganz erheblich, da die Clients lediglich den Netzwerknamen und optional einige Parameter für die Verschlüsselung kennen müssen. Gleichzeitig ermöglicht der ständige Versand der Beacon-Pakete die Überwachung der Empfangsqualität ? auch dann, wenn keine Nutzdaten gesendet oder empfangen werden. Beacons werden immer mit der niedrigsten Übertragungsrate (1 MBit/s) gesendet, der erfolgreiche Empfang des ?Leuchtfeuers? garantiert also noch keine stabile Verbindung mit dem Netzwerk. Die SSID-Übermittlung (Broadcasting) lässt sich in der Regel deaktivieren, auch wenn das den eigentlichen Standard verletzt. Dadurch wird der drahtlose Zugangspunkt selbst unsichtbar. Die Clients stellen in dieser Variante jedoch aktiv die Verbindung her, indem sie, falls keine Verbindung besteht, jederzeit aktiv nach allen gespeicherten Netzwerknamen ?versteckter? Netze suchen. Problematisch ist dabei, dass diese Informationen leicht für einen Angriff auf die Endgeräte ausgenutzt werden können, indem durch den Angreifer die Anwesenheit des Access Point simuliert wird.[2] Da WLAN auf der Sicherungsschicht (Schicht 2 im OSI-Modell) dieselbe Adressierung wie Ethernet verwendet, kann über einen Wireless Access Point mit Ethernet-Anschluss leicht eine Verbindung zu kabelgebundenen Netzen (im WLAN-Jargon ?Distribution System?, DS) hergestellt werden. Eine Ethernet-Netzwerkkarte kann folglich nicht unterscheiden, ob sie mit einer anderen Ethernet-Netzwerkkarte oder (über einen Access Point) mit einer WLAN-Karte kommuniziert. Allerdings muss zwischen 802.11 (WLAN) und 802.3 (Ethernet) konvertiert werden. Der Aufbau großer WLANs mit mehreren Basisstationen und unterbrechungsfreiem Wechsel der Clients zwischen den verschiedenen Basisstationen ist im Standard vorgesehen. In der Praxis kommt es dabei allerdings zu Problemen: Die Frequenzbereiche der Basisstationen überlappen sich und führen zu Störungen. Da ? anders als bei Mobilfunknetzen ? die gesamte ?Intelligenz? im Client steckt, gibt es kein echtes Handover zwischen verschiedenen Basisstationen. Ein Client wird im Normalfall erst nach einer neuen Basisstation suchen, wenn der Kontakt zur vorherigen bereits abgebrochen ist. Eine Lösung für dieses Problem steckt in der Verlagerung der Kontrollfunktionen in die Basisstationen beziehungsweise das Netzwerk: Eine zentrale Instanz kann Frequenzen, Sendeleistung etc. besser steuern und z. B. auch einen Handover initiieren. Da die Basisstationen in einem solchen Szenario einen Teil ihrer Funktionalität verlieren und direkt mit der zentralen Instanz kommunizieren können müssen, wird an entsprechenden Geräteklassen (Lightweight Access Point) und Protokollen gearbeitet. Proprietäre Lösungen existieren bereits seit einigen Jahren, offene Standards (z. B. das Lightweight Access Point Protocol) sind dagegen immer noch in Arbeit. Diskussionen entzünden sich vor allem an der Frage, welches Gerät welche Funktionen übernehmen soll. Ad-hoc-Modus Im Ad-hoc-Modus ist keine Station besonders ausgezeichnet, sondern alle sind gleichwertig. Ad-hoc-Netze lassen sich schnell und ohne großen Aufwand aufbauen, für die spontane Vernetzung weniger Endgeräte sind allerdings andere Techniken, wie Bluetooth, eher gebräuchlich. Die Voraussetzungen für den Ad-hoc-Modus sind dieselben wie für den Infrastruktur-Modus: Alle Stationen benutzen denselben Netzwerknamen (?Service Set Identifier?, SSID) und optional dieselben Einstellungen für die Verschlüsselung. Da es in einem Ad-hoc-Netz keine zentrale Instanz (Access Point) gibt, muss deren koordinierende Funktion von den Endgeräten übernommen werden. Eine Weiterleitung von Datenpaketen zwischen den Stationen ist nicht vorgesehen und in der Praxis auch nicht ohne Weiteres möglich, denn im Ad-hoc-Modus werden keine Informationen ausgetauscht, die den einzelnen Stationen einen Überblick über das Netzwerk geben könnten. Aus diesen Gründen eignet sich der Ad-hoc-Modus nur für eine sehr geringe Anzahl von Stationen, die sich wegen der begrenzten Reichweite der Sender zudem physisch nahe beieinander befinden müssen. Ist das nicht der Fall, kann es vorkommen, dass eine Station nicht mit allen anderen Stationen kommunizieren kann, da diese schlicht kein Signal mehr empfangen. Um dieses Problem zu beheben, können die teilnehmenden Stationen mit Routing-Fähigkeiten ausgestattet werden, so dass sie in der Lage sind, Daten zwischen Geräten weiterzuleiten, die sich nicht in Sendereichweite zueinander befinden. Erhebung und Austausch von Routing-Informationen ist Teil der Aufwertung eines Ad-hoc-Netzwerks zum mobilen Ad-hoc-Netzwerk: Softwarekomponenten auf jeder Station sammeln Daten (z. B. zur ?Sichtbarkeit? anderer Stationen, Verbindungsqualität etc.), tauschen sie untereinander aus und treffen Entscheidungen für die Weiterleitung der Nutzdaten. Die Forschung in diesem Bereich ist noch nicht abgeschlossen und hat neben einer langen Liste von experimentellen Protokollen (AODV, OLSR, MIT RoofNet, B.A.T.M.A.N. etc.) und Standardisierungsvorschlägen (Hybrid Wireless Mesh Protocol, 802.11s) auch einige kommerzielle Lösungen (z. B. Adaptive Wireless Path Protocol von Cisco) hervorgebracht. Siehe in diesem Zusammenhang auch: Freies Funknetz. Wireless Distribution System (WDS) und Repeating Zur Reichweitenerhöhung bestehender Funknetze beziehungsweise Verbindung kabelgebundener Netze via Funk (Wireless Bridging) existieren verschiedene Methoden ? siehe Wireless Distribution System. Frequenzen und Datenübertragungsraten Übersicht Für drahtlose Netzwerke sind bisher zwei lizenzfreie Frequenzblöcke aus den ISM-Bändern freigegeben worden: Standard Frequenzblock Anzahl nutzbare Kanäle Bandbreiten Anzahl überlappungsfrei nutzbare Kanäle (Kanäle) [MHz] Kanäle IEEE 802.11b 2400?2483,5 1?14 11 in den USA, 13 in Europa, 14 in Japan 22 MHz 3 in Europa und den USA (1,6,11), 4 in Japan (1,6,11,14) IEEE 802.11g 11 in den USA, 13 in Europa und Japan 20 MHz 4 in Europa und Japan (1,5,9,13), 3 in den USA (1,6,11) IEEE 802.11n (Wi-Fi 4)[3] 20 MHz 4 in Europa und Japan (1,5,9,13), 3 in den USA (1,6,11) 40 MHz (wenn keine konkurrierenden Netzwerke vorhanden sind)[4] 2 in Europa und Japan (1,9), 1 in den USA 5150?5350 und 5470?5725 36?64 und 100?140 19 in Europa und Japan, 16 in den USA 20 MHz 19 in Europa und Japan, 16 in den USA 40 MHz[4] 9 in Europa und Japan IEEE 802.11a (mit 802.11h) 20 MHz 19 in Europa und Japan (mit TPC und DFS nach 802.11h), 16 in den USA IEEE 802.11ac (Wi-Fi 5)[3] 20 MHz 19 in Europa und Japan, 16 in den USA 40 MHz 9 in Europa und Japan 80 MHz[5] 160 MHz[5] IEEE 802.11ax (Wi-Fi 6)[3] Datenübertragungsraten ? Hauptartikel: Datenübertragungsrate und Datendurchsatz Übersicht Standard Frequenz band Modu lation MIMO Bandbreite [MHz] Datenrate 802.11-2012-Kapitel/Clauses Modulationsverfahren Bemerkung Brutto max. [Mbit/s] Netto max. [Mbit/s] IEEE 802.11 2,4 GHz OFDM ? 22 2 0,3 Clause 16, DSSS IEEE 802.11b OFDM, DSSS ? 22 11[6] 4,3 Clause 17, HR/DSSS 44[7] 22[7] 8[8] proprietär (802.11b+)[7][8] 66[7] 33[7] proprietär (802.11b+)[7] 88[7] 44[7] proprietär (802.11b+)[7] IEEE 802.11g OFDM, QAM64 ? 20 54[6] 19 Clause 19, ERP 20 125[9] 34[9] proprietär (802.11g++)[9] 40 108[10] 30[8] proprietär (802.11g+)[8] IEEE 802.11n 2,4 GHz oder 5,0 GHz 1×1 1×2 1×3 20 65[11][12][13] 30[12][13] 40 150[12][13] 75[12][13] Clause 20, HT 2×2 2×3 20 130[12][13] 60[12][13] 40 300[12][13] 150[12][13] 3×3 20 195[13] 90[13] 40 450[13] 200[13] 1×4 20 65[14] 30[14] 40 200[14] 100[14] 2×4 20 130[14] 60[14] 40 400[14] 200[14] 3×4 20 195[14] 90[14] 40 600[14] 300[14] 4×4 20 260[14] 120[14] 40 800[14] 400[14] IEEE 802.11a 5,0 GHz ? 20 54[12] 23 Clause 18, OFDM 40 108[15] 30 proprietär (802.11a+)[15] IEEE 802.11ac QAM256 1×3 20 86[13] 40[13] 40 200[13] 90[13] 80 433[13] 200[13] 2×3 20 173[13] 80[13] 40 400[13] 180[13] 80 866[13] 300[13] 3×3 20 260[13] 120[13] 40 600[13] 220[13] 80 1.300[13] 650[13] 160 2.600[16] 1×4 20 86[14] 40[14] 40 200[14] 90[14] 80 433[14] 215[14] 2×4 20 173[14] 85[14] 40 400[14] 180[14] 80 866[14] 430[14] 3×4 20 260[14] 130[14] 40 600[14] 270[14] 80 1.300[14] 650[14] 4×4 20 350[14] 175[14] 40 800[14] 360[14] 80 1.733[14] 860[14] 8×8 160 6.900 3.500[17] IEEE 802.11ad 60,0 GHz QAM64 ? 2.000 6.700[16] Standard in Vorbereitung IEEE 802.11y 3,6 GHz 54 23 Die Spalte MIMO gibt die Anzahl der notwendigen Antennen für die angegebene Übertragungsgeschwindigkeit an. MIMO 3×3 bedeutet, dass sowohl an der Empfangs- sowie Sendestation jeweils drei Antennen vorhanden sind und somit drei Datenströme parallel übertragen können. Theoretisch verdreifacht sich damit die Datenrate gegenüber 1×1, in der Praxis bringt jede zusätzliche Antenne einen immer geringeren Gewinn. Der Aufwand für Sende- und Empfangeinheiten steigt linear, der für die Signalverarbeitung sogar überlinear an, weshalb Geräte mit MIMO 8×8 im Feld nicht anzutreffen sind. Mit ?kleinen? WLAN-ac-Sticks mit nur einer Antenne sind z. B. maximal 433 MBit erreichbar. Ebenfalls zu berücksichtigen ist, dass sich alle Geräte auf demselben Kanal die Bandbreite für Senden und Empfangen teilen. Außerdem enthalten die angegebenen Brutto-Datenübertragungsraten den Protokoll-Overhead, also die Verwaltungsdaten, so liegt selbst unter optimalen Bedingungen die erreichbare Nettoübertragungsrate nur wenig über der Hälfte der Brutto-Angaben. Im Mischbetrieb (802.11b + g) kann die Übertragungsrate gegenüber dem reinen 802.11g-Betrieb deutlich einbrechen. Die Netto-Datenübertragungsraten sind unter optimalen Bedingungen in der Praxis realistisch erreichbar.[18][19] Datendurchsatz auf Anwendungsebene Gemessener applikationsspezifischer UDP-Datendurchsatz mit 802.11g Gemessener applikationsspezifischer UDP-Datendurchsatz mit 802.11n (40 MHz Bandbreite) Oft ist der theoretisch mögliche Durchsatz auf OSI-Schicht 2 angegeben. Für den Benutzer ist aber der tatsächliche Datendurchsatz auf OSI-Schicht 5 relevant. Die Norm IEEE802.11 unterteilt WLAN in verschiedene Varianten (b, g, n, a), von denen jede andere theoretisch mögliche Datenraten besitzt. Diese Varianten sind wieder in Modulationsarten unterteilt. Für alle Varianten gilt jedoch, dass der Datendurchsatz nicht nur von Signalstärken und der daraus resultierenden Modulation abhängt, sondern auch maßgeblich von u. a. der Paketgröße abhängig ist. In einer typischen Situation sitzt einer der Endpunkte der Verbindung im WLAN, der andere im drahtgebundenen Ethernet. Daher müssen die Datenpakete das WLAN (802.11) passieren und z. B. in Ethernet (802.3) konvertiert werden und andersherum. Durch die verschiedenen Paketlängen der Medien beeinflusst die Paketgröße der Anwendung den Durchsatz. Anwendungen mit kleinen Paketen, z. B. VoIP, weisen einen schlechteren Datendurchsatz auf als solche mit großen Paketen, z. B. HTTP-Transfers. Dies ist auch deutlich in den beiden Graphen und der Tabelle zu erkennen, welche mit 25 m Abstand zwischen den WLAN-Endpunkten aufgenommen wurden.[20][21] Standard Band Bandbreite UDP-Durchsatz in MBit/s[20][21] kleine Pakete (64 Byte) große Pakete (1460 Byte) 802.11b 2,4 GHz 20 MHz 0,5 5,5 802.11g 2,2 25,1 802.11a 5 GHz 2,5 28,3 802.11n 5 GHz 2,4 GHz 9,3 73,0 40 MHz 9,0 100,0 Übertragungsart: Einzelträger (DSSS) Bei den folgenden Raten wird sowohl Frequenz- als auch Codespreizung eingesetzt. Die Raten mit PBCC sind optionale Erweiterungen und werden meistens nicht unterstützt. Übertragungsrate Modulation Kodierung Kommentar 1 Mbit/s DBPSK CBC wird für Beacons verwendet 2 Mbit/s DQPSK CBC 5,5 Mbit/s DQPSK CCK 5,5 Mbit/s BPSK PBCC optional 11 Mbit/s DQPSK CCK 11 Mbit/s QPSK PBCC optional 22 Mbit/s 8-PSK PBCC optional 33 Mbit/s 8-PSK PBCC optional Übertragungsart: Mehrträger (OFDM, 20 MHz Kanalbreite) Bei den folgenden Raten wird ein Faltungscode mit einer Informationsrate von 1/2 eingesetzt. Die Informationsraten 2/3 und 3/4 kommen durch nachträgliche Punktierung des zuvor generierten Bitstroms mit der Informationsrate von 1/2 zustande, d. h. die Redundanzen werden teilweise wieder gelöscht. Informationsrate, OFDM (20 MHz) Modulation 1/2 2/3 3/4 Mbit/s BPSK 6 n/a 9 QPSK 12 n/a 18 16 QAM 24 n/a 36 64 QAM n/a 48 54 Frequenzen und Kanäle In Deutschland ist für die Frequenzvergabe die Bundesnetzagentur (BNetzA) zuständig, in Österreich die Rundfunk und Telekom Regulierungs-GmbH (RTR), in der Schweiz das Bundesamt für Kommunikation (BAKOM). Die nationalen Behörden richten sich nach übergeordneten Behörden wie dem ETSI in Europa. Die Frequenzzuteilungen im 2,4-GHz-Band und im 5-GHz-Band sind für Deutschland der Webseite der BNetzA und für Österreich der Webseite der RTR zu entnehmen.[22] Anmerkungen zu 2,4 GHz Der Frequenzbereich im 2,4-GHz-Band wurde in 14 Kanäle aufgeteilt; in fast allen Ländern sind nur die ersten 13 verwendbar. Früher waren in Spanien nur die Kanäle 10 und 11 und in Frankreich die Kanäle 10 bis 13 zulässig. Obwohl der Kanalabstand (außer bei Kanal 14) 5 MHz beträgt, benötigt eine Funkverbindung eine Bandbreite von 20 MHz (b-Standard 22 MHz). Um Störungen zu vermeiden, müssen räumlich überlappende Funkzellen nichtüberlappende Frequenzbereiche wählen, nach obigem Schema einen Abstand von mindestens vier Kanalnummern haben. Für überlappende Funkzellen werden daher bevorzugt die Kanalkombinationen 1, 5, 9, 13 (in den USA 1, 6, 11) verwendet. Aufgrund der geringen Frequenzbreite der FCC werden US-Karten auch als ?World?-Karten bezeichnet. Dies soll unterstreichen, dass sie in den meisten Ländern eingesetzt werden dürfen. Zu berücksichtigen ist, dass die WLAN-Kanäle 9 und 10 nahe am Spitzenwert der Leckfrequenz haushaltsüblicher Mikrowellenherde (2,455 GHz) liegen und dadurch eine Störung dieser Kanäle möglich ist. Anmerkungen zu 5 GHz Mit Ausnahme der USA, in denen die Kanäle 36 bis 64 auch im Freien verwendet werden dürfen, ist der 802.11a-Standard weltweit nur für den Gebrauch in geschlossenen Räumen zugelassen. In Europa sind jedoch durch den 802.11h-Standard erweiterte Nutzungsmöglichkeiten gegeben. Die Kanäle 155 bis 171 sind in Deutschland von der Bundesnetzagentur für ?Broadband Fixed Wireless Access? (BFWA) für gewerbliche, öffentliche Netze freigegeben und meldepflichtig. Sie erlauben bis zu 4 Watt Sendeleistung.[23] Auf Basis der SRD-Zulassung (Short Range Device) darf der Frequenzbereich 5725?5850 MHz (Kanäle 149 bis 165) mit einer äquivalenten isotropen Strahlungsleistung von 25 mW in Europa genutzt werden.[24] Laut der EU-Entscheidung 2005/513/EC darf der Bereich 5150?5350 MHz (Kanäle 36 bis inklusive 64) mit einer Sendeleistung von bis zu 200 mW in Europa nur in geschlossenen Räumen genutzt werden, der Bereich 5150?5250 MHz dabei auch ohne DFS und TPC. Der Bereich 5470?5725 MHz kann mit einer äquivalenten isotropen Strahlungsleistung (EIRP) von bis zu 1,0 W genutzt werden, wenn die automatische Leistungsregelung (TPC/TPS) und das dynamische Frequenzwahlverfahren (DFS) verwendet werden.[25] Dadurch soll sichergestellt werden, dass Primärnutzer (z. B. Regenradar) auf denselben Frequenzen nicht gestört werden.[26] In Amerika galten schon vorher ähnliche Regelungen. Südafrika übernahm die EU-Entscheidung unverändert, auch in den meisten anderen Ländern der Erde gibt es ähnliche Beschränkungen. Nutzungsbedingungen 2,4 GHz (802.11b/g/n) Kanal Mitten- Frequenz [GHz] Nutzungsbedingungen Europa und fast alle Länder der Welt USA[27] Japan 1 * 2,412 100 mW 1 W 100 mW 2 2,417 100 mW 1 W 100 mW 3 2,422 100 mW 1 W 100 mW 4 2,427 100 mW 1 W 100 mW 5 * 2,432 100 mW 1 W 100 mW 6 2,437 100 mW 1 W 100 mW 7 2,442 100 mW 1 W 100 mW 8 2,447 100 mW 1 W 100 mW 9 * 2,452 100 mW 1 W 100 mW 10 2,457 100 mW 1 W 100 mW 11 2,462 100 mW 1 W 100 mW 12 2,467 100 mW 1 W ** 100 mW 13 * 2,472 100 mW 1 W ** 100 mW 14 2,484 verboten verboten nur DSSS (802.11b) Bei 802.11b sollten nur die Kanäle 1, 6 und 11 verwendet werden, da sich sonst die Kanäle überlappen.[28] * Bei 802.11g und 802.11n im 2,4 GHz-Band sollten in Europa und Japan nur die Kanäle 1, 5, 9 und 13 verwendet werden, um dem überlappungsfreien 20-MHz-Kanalschema gerecht zu werden. ** Wird von WLAN-Geräten aufgrund eines niedrigen Emissionslimits direkt an der oberen Bandgrenze (2,4835 GHz) in der Regel nicht oder nur mit deutlich niedrigerer Leistung unterstützt. 5 GHz (802.11a/h/j/n/ac) Kanal Mitten- Frequenz (GHz) Nutzungsbedingungen Europa, Japan[29] und fast alle Länder der Welt USA, Australien China, Singapur, Israel 36 5,180 200 mW erlaubt erlaubt 40 5,200 200 mW erlaubt erlaubt 44 5,220 200 mW erlaubt erlaubt 48 5,240 200 mW erlaubt erlaubt 52 5,260 200 mW erlaubt erlaubt 56 5,280 200 mW erlaubt erlaubt 60 5,300 200 mW erlaubt erlaubt 64 5,320 200 mW erlaubt erlaubt 100 5,500 1 W erlaubt verboten 104 5,520 1 W erlaubt verboten 108 5,540 1 W erlaubt verboten 112 5,560 1 W erlaubt verboten 116 5,580 1 W erlaubt verboten 120 5,600 1 W verboten verboten 124 5,620 1 W verboten verboten 128 5,640 1 W verboten verboten 132 5,660 1 W erlaubt verboten 136 5,680 1 W erlaubt verboten 140 5,700 1 W erlaubt verboten Europa USA, China und viele andere Japan, Türkei, Israel 149 5,745 25 mW (SRD) erlaubt verboten 153 5,765 25 mW (SRD) erlaubt verboten 157 5,785 25 mW (SRD) erlaubt verboten 161 5,805 25 mW (SRD) erlaubt verboten 165 5,825 25 mW (SRD) erlaubt verboten 60 GHz (802.11ad) Kanal Mitten- Frequenz [GHz] 1 58,320 2 60,480 3 62,640 4 65,880 vorläufig, da 802.11ad noch nicht normiert ist Kanalbreiten, überlappungsfreie Kanäle und Spektralmasken Spektralmasken für 802.11a/b/g/n Überlappungsfreie Kanäle im 2,4-GHz-Band Gemäß den Vorgaben des Normungsinstituts ETSI steht der WLAN-Anwendung im 2,4-GHz-Band eine Gesamtbandbreite von 83,5 MHz zur Verfügung (mit geringfügigen Unterschieden in den einzelnen Ländern der EU). Standards nach IEEE 802.11 Normiert wird WLAN, wie viele andere Standards, von der IEEE, kurz für Institut der Elektrik- und Elektronik Ingenieure (engl. Engineers). Siehe auch: IEEE 802.11 Name ver öffent licht Frequenz [GHz] Modulations-/ Multiplex verfahren Reichweite [m] im Haus (ca.) abhängig von Wänden im Freien (ca.) inkl. einer Wand 802.11 1997 2,4 FHSS-GFSK, DSSS-DBPSK/DQPSK 20 100 802.11a 1999 5 OFDM-BPSK/QPSK/QAM 35 120 802.11b 1999 2,4 DSSS-CCK 38 140 802.11g 2003 2,4 OFDM-BPSK/QPSK/QAM 38 140 802.11y 2008 2 3,6 wie 802.11a 50 5000 802.11n 2009 1 2,4 / 5 MIMO-OFDM-BPSK/QPSK/QAM 70 250 802.11ac 2013 5 wie 802.11n Quellen 1 Bezug der Spezifikation von IEEE Standard 802.11n vom 4. Januar 2010 2 IEEE 802.11 Official Timelines vom 28. Januar 2009 802.11 Der ursprüngliche, nicht mehr gebräuchliche WLAN-Standard 802.11 aus dem Jahr 1997 sah drei Übertragungsarten vor: Erstens gab es das Frequenzsprungverfahren (FHSS), bei der das verwendete Spektrum in viele kleine Kanäle zerteilt wird. Sender und Empfänger springen synchron nach vordefinierten Abfolgen von Kanal zu Kanal. Das reduziert die Störungsempfindlichkeit erheblich. Zweitens gab es die Übertragungsart DSSS, ein Einzelträgerverfahren, bei dem die Sendeenergie auf einen breiten Frequenzbereich verteilt wird. Schmalbandige Störungen ? wie etwa durch Bluetooth, ZigBee oder Modellflug ? können dadurch praktisch ?geschluckt? werden. Das Signal in einem DSSS-Kanal erstreckt sich über 22 MHz. Die störenden Ausläufer der Modulation am oberen und unteren Ende des Kanals müssen gedämpft werden. Daraus ergibt sich ein Kanalabstand von ebenfalls 22 MHz, wenn sich die für das Signal genutzten Bereiche nicht überlappen sollen. In den USA und Europa waren somit drei überlappungsfreie Kanäle möglich, in Japan vier. Üblicherweise verwendete man die Kanäle 1, 6 und 11 sowie in Japan zusätzlich Kanal 14. Mit Leistungseinbußen war auch ein Betrieb mit geringerem Kanalabstand möglich. Drittens gab es das Infrarot-Übertragungsverfahren. Dieses verwendete diffuses Licht mit einer Wellenlänge von 850-950 nm. Damit war eine Übertragung von bis zu 16 Mbit/s auf einer maximalen Entfernung von 10 Metern möglich. Die Infrarot-Übertragung war nur im Ad-hoc-Modus möglich. 802.11a und 802.11b ? Hauptartikel: IEEE 802.11a Bei der Entwicklung von 802.11a und 802.11b wurde als Modulation OFDM, ein Mehrträgerverfahren, gewählt. Man entschied sich Kanäle von 20 MHz Breite zu verwenden. Ein Kanal besteht aus 52 Zwischenträgern (engl. sub-carrier) zu je 0,3125 MHz, also insgesamt 16,25 MHz, die tatsächlich für das Signal verwendet werden. Vier von diesen Zwischenträgern sind Pilotträger, übermitteln also keine Daten. Zur Robustheit des Signals tragen die Verfahren Subcarrier-Interleaving, Scrambling und Faltungscode bei. Subcarrier-Interleaving ist ein Frequenzsprungverfahren auf Ebene der Unterträger. Da OFDM noch nicht für das 2,4-GHz-Band zugelassen war, als 802.11a (5 GHz) und 802.11b (2,4 GHz) entworfen und standardisiert wurden, musste man für 802.11b wieder auf DSSS mit 22 MHz Kanalbreite zurückgreifen, jedoch konnte durch eine neue Kodierungsart die Übertragungsrate auch mit DSSS erhöht werden. 802.11h Hierbei handelt es sich um eine Erweiterung zum Standard 802.11a. Sie fügt Transmission Power Control (TPC) und Dynamic Frequency Selection (DFS) hinzu. Damit wird gesichert, dass Radaranlagen, Satelliten- und Ortungsdienste nicht gestört werden. Sie muss beim Betrieb mit großen Sendeleistungen und außerhalb von Gebäuden in Europa zwingend eingesetzt werden. 802.11g Nachdem OFDM auch für 2,4 GHz freigegeben worden war, übertrug man das 20-MHz-Kanalschema von 802.11a (5 GHz) auf 2,4 GHz. Im 2003 veröffentlichten Standard 802.11g wurde auch ein Kompatibilitätsmodus für 802.11b-Geräte eingebaut. In Europa sind nun durch die geringere Kanalbreite 4 statt 3 überlappungsfreie Kanäle im 2,4-GHz-Band möglich (1, 5, 9 und 13). Dieses Kanalschema wird auch von der österreichischen Rundfunk und Telekom Regulierungs-GmbH (RTR) empfohlen.[30] In Japan wurde darauf verzichtet Kanal 14 für OFDM freizugeben, sodass mit der Abnahme der Nutzung der inzwischen veralteten Übertragungsart DSSS der Kanal 14 wieder für andere Nutzungen frei wird. 802.11n ? Hauptartikel: IEEE 802.11n Mit 802.11n wurden 802.11a und g erweitert, so dass nun wahlweise ein Betrieb mit einem Kanalabstand von 40 MHz und einer Signalbreite von 33,75 MHz möglich ist. Das Signal setzt sich in diesem Modus aus 108 Zwischenträgern zu wiederum 0,3125 MHz zusammen. Sechs von diesen Trägern sind Pilotträger. Dadurch ergibt sich eine Steigerung der maximalen Bruttoübertragungsrate (pro Stream) auf 150 Mbit/s, jedoch halbiert sich die Anzahl der überlappungsfreien Kanäle. 802.11ac ? Hauptartikel: IEEE 802.11ac Im Dezember 2013 ist der neue Standard 802.11ac verabschiedet worden,[31] der gegenüber 802.11n eine schnellere Datenübertragung mit einer Bruttodatenrate von 1,3 Gbit/s ermöglicht. Netto schaffen gute Geräte aber immerhin das Dreifache der 3-Stream-MIMO-Geräte. Die Datenübertragung geschieht ausschließlich im 5-GHz-Band und fordert eine größere Kanalbreite von 80 MHz, optional eine Kanalbreite von 160 MHz. 802.11ad ? Hauptartikel: IEEE 802.11ad Seit 2014 können mit dem Standard IEEE 802.11ad im 60-GHz-Bereich bis zu 7 Gbit/s auf Strecken einiger Meter ohne Hindernisse in der Verbindungslinie erreicht werden. Die hohen Datenraten im 60-GHz-Bereich sind durch die im Vergleich zum 5-GHz-Bereich sehr breiten Kanäle möglich. Geräte, die für den 60-GHz-Bereich geeignet sind, sollen für größere Entfernungen bei reduzierter Datenrate in den 5-GHz- oder 2,4-GHz-Bereich wechseln können.[32] Reichweite und Antennen 54-MBit-WLAN-PCI-Karte (802.11b/g) mit Dipolantenne (Sperrtopf), links neben dem Slotblech 54-MBit-WLAN-USB-Adapter (802.11b/g) mit integrierter Antenne Wireless-LAN-Cardbus-Karte Typ II (802.11b/g) mit integrierter Antenne Access Point, einsetzbar als Bridge und Repeater, mit einer Rundstrahlantenne ausgeführt als Dipolantenne (Sperrtopf) Die zulässige äquivalente isotrope Strahlungsleistung (EIRP) von 100 mW (2,4 GHz) beziehungsweise 500 mW (5 GHz) handelsüblicher 802.11-Endgeräte lässt 30 bis 100 Meter Reichweite auf freier Fläche erwarten. Einige WLAN-Geräte erlauben den Anschluss einer externen Antenne. Mit Richtantennen lassen sich bei Sichtkontakt im Freien mehrere Kilometer überbrücken. In geschlossenen Räumen ist die Reichweite stark von Hindernissen sowie Art und Form der Bebauung abhängig. Leichtbauwände mindern die Reichweite durch Dämpfung und können ? je nach verwendetem (Metall-)Trägerbau sowie Art der Unterfolie ? ein großes Hindernis sein. Insbesondere Stein- und Betonaußenwände dämpfen, vor allem durch Feuchtigkeit bedingt, stark ? ebenso wie metallbedampfte Glasscheiben beziehungsweise Brandschutzkonstruktionen. Je höher die elektrische Leitfähigkeit des Materials, desto stärker ist die Dämpfung. Oberflächen können aber auch als Reflektor wirken und damit die Reichweite verbessern. WLAN nach IEEE 802.11h (maximal 54 Mbit/s brutto) arbeitet im 5-GHz-Band, in dem ein größerer Frequenzbereich (455 MHz Bandbreite) zur Verfügung steht und damit 19 nicht überlappende Frequenzen (in Deutschland) lizenzfrei nutzbar sind. (Siehe dazu auch, für die USA: U-NII) Im Normalbetrieb sind in Gebäuden nach IEEE 802.11h 200 mW äquivalente isotrope Strahlungsleistung (EIRP) erlaubt. Jedoch nur ein kleiner Teil des Frequenzbe ist ohne weitere Anforderungen (TPC, Transmitter Power Control und DFS, Dynamic Frequency Selection) nutzbar. Im Freien ist ebenfalls nur ein kleiner Frequenzbereich mit TPC und DFS erlaubt. In diesem sind auch höhere äquivalente isotrope Strahlungsleistungen bis 1 Watt EIRP gestattet.[33] TPC und DFS sollen sicherstellen, dass Satellitenverbindungen und Radargeräte nicht gestört werden. Als primäre Lizenznehmer sind diese gegenüber der Nutzung für WLAN privilegiert. Mit speziellen Richtfunkantennen lassen sich bei Sichtkontakt mehrere Kilometer überbrücken. Dabei werden teilweise Rekorde mit Verbindungen über bis zu hundert Kilometer aufgestellt, bei denen keine Sendeverstärker eingesetzt werden, sondern nur Antennen mit hohem Gewinn. Allerdings funktioniert das nur bei quasi-optischer Sicht und möglichst freier erster Fresnelzone. Die zulässige äquivalente isotrope Strahlungsleistung (EIRP) wird dabei aber meist deutlich überschritten. Antennen bringen sowohl einen Sende- als auch einen Empfangsgewinn (Antennengewinn, angegeben in dBi), indem sie elektromagnetische Wellen bündeln. Daher muss statt der Sendeleistung die sogenannte äquivalente isotrope Strahlungsleistung zur Beschränkung herangezogen werden. In Europa ist die äquivalente isotrope Strahlungsleistung von WLAN-Anlagen bei 2,4 GHz auf 100 mW(= 20 dBm) EIRP, bei 5,15?5,35 GHz über 5,25 GHz mit TPC und DFS auf 200 mW (= 23 dBm) EIRP, beziehungsweise bei 5,47?5,725 GHz mit TPC und DFS auf 1000 mW (= 30 dBm) EIRP begrenzt. Zum EIRP siehe auch: Äquivalente isotrope Strahlungsleistung, Abschnitt Praktische Berechnung. Sicherheit Ohne Maßnahmen zur Erhöhung der Informationssicherheit sind drahtlose lokale Netzwerke Angriffen ausgesetzt, wie zum Beispiel Snarfing oder Man-In-The-Middle-Angriffen. Daher wird versucht, das mit entsprechenden Mitteln, insbesondere durch die Verwendung von Verschlüsselung und Kennwörtern (Authentifizierung) zu verhindern oder zumindest deutlich zu erschweren. Verschlüsselung Teil des WLAN-Standards IEEE 802.11 ist Wired Equivalent Privacy (WEP), ein Sicherheitsstandard, der den RC4-Algorithmus enthält. Die darin enthaltene Verschlüsselung mit einem nur 40 Bit (64 Bit genannt) beziehungsweise 104 Bit (128 Bit genannt), bei einigen Herstellern auch 232 Bit (256 Bit genannt) langen statischen Schlüssel reicht jedoch nicht aus, das WLAN ausreichend zu sichern. Durch das Sammeln von Schlüsselpaaren sind Known-Plaintext-Angriffe möglich. Es gibt frei erhältliche Programme, die sogar ohne vollständigen Paketdurchlauf, einen schnellen Rechner vorausgesetzt, das Passwort entschlüsseln können. Jeder Nutzer des Netzes kann den gesamten Verkehr zudem mitlesen. Die Kombination von RC4 und CRC wird als kryptografisch unsicher betrachtet. Aus diesen Gründen sind technische Ergänzungen entwickelt worden, etwa WEPplus, Wi-Fi Protected Access (WPA) als Vorgriff und Teilmenge zu 802.11i, Fast Packet Keying, Extensible Authentication Protocol (EAP), Kerberos oder High Security Solution, die alle mehr oder weniger gut das Sicherheitsproblem von WLAN verkleinern. Der Nachfolger von WEP ist der Sicherheitsstandard 802.11i. Er bietet eine erhöhte Sicherheit durch Advanced Encryption Standard (AES) (bei WPA2) und gilt zurzeit als nicht entschlüsselbar, solange keine trivialen Passwörter verwendet werden, die über eine Wörterbuch- oder gar Brute-force-Attacke geknackt werden können. WPA2 ist das Äquivalent der Wi-Fi Alliance zu 802.11i, das mit dem Verschlüsselungsalgorithmus AES (Advanced Encryption Standard mit Schlüssellängen von 256 Bit) arbeitet und in neueren Geräten meist unterstützt wird. Einige Geräte lassen sich durch Austausch der Firmware mit WPA2-Unterstützung nachrüsten. Jedoch erfolgt hier die Verschlüsselung meist ohne Hardwarebeschleunigung, so dass der Zugewinn an Sicherheit durch eine starke Einbuße an Übertragungsrate erkauft wird. Eine alternative Herangehensweise besteht darin, die gesamte Verschlüsselung auf die IP-Ebene zu verlagern. Dabei wird der Datenverkehr beispielsweise durch die Verwendung von IPsec oder durch einen VPN-Tunnel geschützt. Besonders in freien Funknetzen werden so die Inkompatibilitäten verschiedener Hardware umgangen, eine zentrale Benutzerverwaltung vermieden und der offene Charakter des Netzes gewahrt. Zur rechtlichen Situation siehe weiter unten. Beim sogenannten ?WarWalking? (oder beim Abfahren ganzer Gegenden mit dem Auto Wardriving genannt) werden mit einem WLAN-fähigen Notebook oder PDA offene WLANs gesucht. Diese können mit Kreide markiert werden (WarChalking). Das Ziel dabei ist, Sicherheitslücken aufzudecken und dem Betreiber zu melden und die Verbreitung von WLAN zu untersuchen, oder diese zum eigenen Vorteil (kostenlos und unter fremdem Namen surfen) auszunutzen. Authentifizierung Extensible Authentication Protocol ist ein Protokoll, um Clients zu authentifizieren. Es kann zur Nutzerverwaltung auf RADIUS-Server zurückgreifen. EAP wird hauptsächlich innerhalb von WPA für größere WLAN-Installationen eingesetzt. Eine Authentifizierung ist auch über die MAC-Adresse der drahtlosen Netzwerkadapter möglich. Die MAC-Adresse ist eine Hardware-Kennung, anhand deren sich jeder angeschlossene Netzwerkadapter identifizieren lässt. Die meisten Access Points beziehungsweise Router bieten die Möglichkeit, den Zugriff nur für bestimmte MAC-Adressen zu ermöglichen. Allen nicht zugelassenen MAC-Adressen wird dann keine IP-Adresse zugewiesen, beziehungsweise der Zugriff auf den Access Point ist blockiert. Eine alleinige Sicherung über MAC-Adressen-Filterung ist jedoch nicht sicher, da sich solche Adressen problemlos einstellen lassen. Gültige MAC-Adressen können z. B. durch das Mitlauschen des Datenverkehrs anderer Teilnehmer gefunden werden. Aber auch Verschlüsselungen lassen sich auf diese Weise knacken. Grundlegende Sicherheitsmaßnahmen Dazu gehören einige grundlegende Einstellungen am Router beziehungsweise Access Point: Aktivierung der Verschlüsselung mit einer sicheren Verschlüsselungsmethode, d. h. mindestens WPA, besser WPA2; dabei spezifische Hinweise zur Sicherheit der gewählten Verschlüsselungsmethode im jeweiligen Artikel beachten Vergabe eines sicheren Netzwerkschlüssels Ersetzen der werkseitig voreingestellten Router- beziehungsweise Access-Point-Passwörter, da diese z. B. bei Arcadyan (einige Easybox- und Speedport-Modelle) anhand der BSSID errechnet werden können[34][35] Deaktivieren von Wi-Fi Protected Setup, wenn die Funktion nicht (mehr) benötigt wird[36] Änderung des werkseitig voreingestellten SSID-Namens, so dass keine Rückschlüsse auf verwendete Hardware, Einsatzzweck oder Einsatzort möglich sind (minimaler Sicherheitsgewinn, da anhand der BSSID meist auf die Hardware Rückschlüsse gezogen werden können) Deaktivierung der Fernkonfiguration des Routers, soweit vorhanden (insbesondere bei privaten Haushalten) Konfiguration des Access Point nach Möglichkeit nur über kabelgebundene Verbindungen vornehmen beziehungsweise Konfiguration per WLAN deaktivieren Ausschalten von WLAN-Geräten, solange sie nicht genutzt werden (Zeitmanagement) regelmäßige Firmware-Aktualisierungen des Access Point, um sicherheitsrelevante Verbesserungen zu erhalten Trennung des Access Point vom restlichen (kabelgebundenen) Netzwerkteil mit Hilfe von VLANs und gleichzeitiger Einsatz einer Firewall zwischen den Netzwerkteilen Gesellschaftliche Bedeutung Die starke Verbreitung von Drahtlosnetzwerken in den letzten Jahren unterstreicht den Trend zu mehr Mobilität und flexibleren Arbeitsbedingungen. Bereits 2005 wurden in der Europäischen Union mehr Notebooks als Desktop-Rechner verkauft, die meisten davon mit eingebautem WLAN-Chip. Öffentliche und kommerzielle WLAN-Access-Points mit Internetanbindung, sogenannte ?Hot Spots?, ermöglichen an vielen Orten den Zugriff auf das weltweite Datennetz. Deren gesellschaftliche Bedeutung zeigt beispielsweise die Initiative Wifi4EU, mit der die EU in ihren Mitgliedsstaaten die Bereitstellung kostenloser WLAN-Netze in öffentlichen Einrichtungen subventioniert.[37][38] Bei privaten Nutzern finden sich ohnehin nahezu flächendeckend DSL-Zugangsgeräte mit eingebautem Access Point, die die Telekommunikationsanbieter oft verbilligt zusammen mit dem Internet-Anschluss anbieten. Weitere Anwendungen WLAN kann auch als Plattform zur Lokalisierung in Städten und Gebäuden verwendet werden. Seit Anfang 2008 wird dazu vom Fraunhofer-Institut für Integrierte Schaltungen auf einer Fläche von 25 Quadratkilometern in Nürnberg eine Testumgebung betrieben.[39] Nach einer ersten Betriebsphase soll das System auf weitere deutsche und europäische Städte wie zum Beispiel Berlin, München, Frankfurt, London, Paris und Mailand ausgedehnt werden.[40] Google und Apple nutzen die Daten von WLANs, um Nutzer zu lokalisieren. Damit bieten sie eine Alternative zur Lokalisierung per GPS.[41] Es wird intensiv geforscht, inwieweit WLAN auch im öffentlichen Straßenverkehr genutzt werden kann, um die Verkehrssicherheit zu erhöhen.[42] Siehe auch: WLAN-basierte Ortung Rechtliche Lage in Deutschland Umstritten war die Frage, inwieweit der Anschlussinhaber eines WLAN für Rechtsverletzungen Dritter haftet, die unter der IP-Adresse des Anschlussinhabers begangen werden.[43] In diesem Zusammenhang steht auch die Rechtsfrage, welche Schutzmaßnahmen ein Anschlussinhaber überhaupt zu ergreifen hat und wo gegebenenfalls zumutbare Schutzmaßnahmen (sogenannte ?Prüfungs- und Überwachungspflichten?) enden. Das Hanseatische Oberlandesgericht entschied, dass ein sorgeberechtigter Elternteil als Störer auch für Urheberrechtsverletzungen haftet, die durch seine Kinder begangen wurden. Den Eltern sei es zumutbar, technische Maßnahmen zu ergreifen, um die Nutzung illegaler Tauschbörsen zu verhindern (Beschl. v. 11. Oktober 2006 ? 5 W 152/06). Auch das Oberlandesgericht Köln sah die Haftung für Urheberrechtsverletzungen nicht nur für eine GmbH als Anschlussinhaberin als gegeben an, sondern verurteilte auch den Geschäftsführer der GmbH zur persönlichen Haftung aus dem Gesichtspunkt der Störerhaftung (Beschl. v. 8. Mai 2007 ? 6 U 244/06). Die gegenteilige Ansicht vertrat das Oberlandesgericht Frankfurt am Main. Die Richter entschieden, dass der Inhaber eines Internetanschlusses grundsätzlich nicht als Störer für die unberechtigte Nutzung einer WLAN-Verbindung durch unberechtigte Dritte haftet, die mit ihm in keinerlei Verbindung stehen.[44] Nach Ansicht des Landgerichtes München I besteht auch keine Haftung eines Radiosenders für die durch einen Volontär begangenen Rechtsverletzungen, da kein Unternehmen grenzenlose Mitarbeiterüberwachungspflichten einhalten könne (Urteil v. 4. Oktober 2007 ? 7 O 2827/07). Diese uneinheitliche Rechtsprechung führte dazu, dass ein solcher Fall beim Bundesgerichtshof anhängig war. Der u. a. für das Urheberrecht zuständige I. Zivilsenat verkündete am 12. Mai 2010 eine grundlegende Entscheidung zu den Haftungsfragen. Privatpersonen können demnach auf Unterlassung, nicht dagegen auf Schadensersatz in Anspruch genommen werden, wenn ihr nicht ausreichend gesicherter WLAN-Anschluss von unberechtigten Dritten für Urheberrechtsverletzungen im Internet genutzt wird.[45] Eine Entscheidung darüber, wie die Rechtslage bei WLANs ist, die der Anbieter bewusst an die Öffentlichkeit richtet, steht bislang noch aus. Daneben stellt sich die Frage, ob sich derjenige, der unberechtigt ein offenes, fremdes WLAN nutzt, strafbar macht. Diese unberechtigte Nutzung wird teils in Anspielung auf ?Schwarzfahren? als ?Schwarzsurfen? bezeichnet. Das Amtsgericht Wuppertal hat 2007 entschieden, dass sich ein ?Schwarzsurfer? wegen eines Verstoßes gegen §§ 89, S. 1, 148 I 1 TKG und §§ 44, 43 II Nr. 3 BDSG strafbar macht.[46] Nach einer Entscheidung desselben Amtsgerichts von 2010 soll ?Schwarzsurfen? nicht mehr unter Strafe stehen.[47] Das Landgericht Wuppertal bestätigte diese Entscheidung. Schwarzsurfen sei unter keinem rechtlichen Gesichtspunkt strafbar.[48] Mit der am 21. Juli 2016 erlassenen Änderung des Telemediengesetzes wurde durch eine Ergänzung von § 8 Abs. 3 klargestellt, dass auch Zugangsanbieter, die Nutzern einen Internetzugang über ein drahtloses lokales Netzwerk zur Verfügung stellen, haftungsprivilegiert sind. Damit ist geregelt, dass WLAN-Betreiber unter das sogenannte Providerprivileg fallen. Die eigentliche Abschaffung der Störerhaftung schaffte es hingegen zunächst nicht in den Gesetzestext. Stattdessen fand sich in der Begründung des Gesetzes lediglich der Hinweis, dass der Gesetzgeber es gern sähe, dass WLAN-Betreiber nicht mehr für Rechtsverstöße Dritter abgemahnt und auf Unterlassung in Anspruch genommen werden können. Echte Rechtssicherheit für offene Funknetze wurde damit gerade noch nicht erreicht. Im Gegensatz zum eigentlichen Gesetzestext ist die Begründung nicht bindend. Gerichte können sie zur Auslegung heranziehen, müssen die dort dargelegte Sichtweise aber nicht zwingend teilen. Daher erwirkte die TMG-Novelle des Jahres 2016 noch keinen Durchbruch bei der Anpassung der Störerhaftung. Dazu hätte der Gesetzgeber die Betreiber im Gesetz ausdrücklich insbesondere von Unterlassungsansprüchen freistellen müssen.[49] Dazu kam es erst durch eine weitere Gesetzesänderung Mitte 2017. Hiernach stellt die Neufassung von § 7 Abs. 4 S. 3 TMG klar, dass die Zugangsanbieter Dritten nicht mehr für das Verhalten der WLAN-Nutzer haften.[50] Trotz dieser Erneuerung der Gesetzeslage verbleiben für den Betrieb öffentlicher WLAN-Netze jedoch noch eine Reihe rechtlicher Anforderungen, etwa solche des Datenschutzes.[51] Zur aktuellen Rechtslage siehe Störerhaftung. Diskussion gesundheitlicher Wirkungen Die von WLAN-Geräten benutzten Funkfrequenzen liegen um 2,4 GHz beziehungsweise 5,4 GHz, also im Mikrowellenbereich. WLAN wird daher im Zusammenhang mit möglichen gesundheitlichen Auswirkungen im Rahmen der elektromagnetischen Umweltverträglichkeit diskutiert. Nach mehreren Studien, u. a. des Bundesamts für Strahlenschutz (BfS), gibt es innerhalb der gesetzlichen Expositionsgrenzwerte nach dem aktuellen Stand der Wissenschaft keine Hinweise, dass diese hochfrequenten elektromagnetischen Felder gesundheitliche Risiken darstellen. Die einzige gesicherte biologische Auswirkung ist die thermische Erwärmung.[52] Der zugehörige Prozess heißt dielektrische Erwärmung. Um Schäden durch thermische Erwärmung zu vermeiden, wurde ein Grenzwert für die spezifische Absorptionsrate definiert. Im normalen Betrieb wird dieser Grenzwert bei körperfernem Betrieb weit unterschritten.[53] Lediglich Laptopnutzer kommen nahe an die Grenzwerte, wenn sie ihr Gerät auf ihrem Oberschenkel aufgelegt haben.[54] Unabhängig von den bisherigen Erkenntnissen empfiehlt das Bundesamt für Strahlenschutz (BfS) generell, die persönliche Strahlenbelastung zu minimieren, um mögliche, aber bisher nicht erkannte gesundheitliche Risiken gering zu halten.[54] Es gibt vereinzelt Berichte von Personen, die über verschiedene Beschwerden klagen und diese selbst auf WLANs zurückführen.[55] Verschiedene Untersuchungen mit elektrosensiblen Menschen konnten aber keinen Zusammenhang zwischen den Beschwerden und elektromagnetischer Strahlung feststellen. Abbildungen Dieses Notebook mit WLAN-Karte ist mit dem WLAN-Router kabellos verbunden. Karte mit WLAN-Abdeckung in der Niedersächsischen Staats- und Universitätsbibliothek Göttingen Ausgeschildertes WLAN am Flughafen Wien-Schwechat. Kartierung von WLAN-Zugangspunkten in Seattle durch Wardriving mit NetStumbler, 2004 An diesem Ort in Estland gibt es ein freies WLAN (beziehungsweise Wi-Fi). Weltkarte mit WLAN-Zugangspunkten, gesammelte Daten von 2007 Siehe auch IEEE 802.11 ? IEEE-Norm, die von üblichen WLANs verwendet wird. Wi-Fi ? Markenstandard für zertifizierte WLANs nach IEEE 802.11, in einigen Ländern HIPERLAN und HomeRF ? alternative Standards Industrial Wireless Local Area Network (IWLAN) WLAN-Sniffer WiMAX Wireless Metropolitan Area Network (WMAN) Auto Fallback Richtfunk für Hintergründe zur Wellenausbreitung Carrier Sense Multiple Access/Collision Avoidance (CSMA/CA RTS/CTS) WLAN-basierte Ortung Max-fi Freies Funknetz Anwendungssoftware Ein Textverarbeitungsprogramm als Beispiel für Anwendungssoftware Als Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Applikation; englisch application software, kurz App) werden Computerprogramme bezeichnet, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen.[1] Sie dienen der ?Lösung von Benutzerproblemen?.[2] Beispiele für Anwendungsgebiete sind: Bildbearbeitung, E-Mail-Programme, Webbrowser, Textverarbeitung, Tabellenkalkulation oder Computerspiele. Aus dem englischen Begriff application hat sich in der Alltagssprache auch die Bezeichnung Applikation, kurz App, eingebürgert. Im deutschen Sprachraum wird die Abkürzung App seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit mobiler App gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartphones und Tabletcomputer. Allerdings wird inzwischen auch teilweise Desktop-Anwendungssoftware App genannt, zum Beispiel bei Microsofts Betriebssystem Windows seit Windows 8 (Windows-Apps), das sowohl auf Desktop-PCs als auch Tablets eingesetzt wird, oder bei Apples Betriebssystem macOS mit dem Mac App Store.[3] Eine Tabellenkalkulation als weiteres Beispiel In Unternehmen Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standardsoftware, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individualsoftware eingesetzt. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie Enterprise-Resource-Planning-Systeme oder Portal-Software) spricht man auch von Business-Anwendungen, Business Software oder Unternehmenssoftware. Auf Mobilgeräten ? Hauptartikel: Mobile App Mobile Apps können über einen in das mobile Betriebssystem integrierten App Store bezogen und direkt auf dem Gerät installiert werden. Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und müssen nicht installiert werden. In Webbrowsern ? Hauptartikel: Webanwendung Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Webanwendungen erfordern im Gegensatz zu Desktop-Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumgebungen. Abgrenzung zu systemnaher Software Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und Dienstprogrammen. Dazu ?zählen die Programme, die für den korrekten Ablauf einer Rechenanlage erforderlich sind, sowie alle Programme, die die Programmerstellung unterstützen, z. B. Übersetzer und Testwerkzeuge und allgemeine Dienstleistungen bereitstellen [? Formatierung, Dateiverwaltung, Datentransfer ?]?,[2] die aber keinen Endbenutzer-bezogenen 'Nutzen' bringen. Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Datenbanksysteme. Anwendungssoftware kann sowohl lokal auf einem Desktop-Computer (Desktop-Anwendung) bzw. auf einem Mobilgerät installiert sein oder auf einem Server laufen, auf den vom Desktop-Computer bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgeführt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware. Siehe auch Widget, ein Programm, das innerhalb eines anderen Programms läuft. Liste von Simulationssoftware Geschichts-App Betriebssystem Zusammenhang zwischen Betriebssystem, Hardware, Anwendungssoftware und dem Benutzer Ein Betriebssystem, auch OS (von englisch operating system) genannt, ist eine Zusammenstellung von Computerprogrammen, die die Systemressourcen eines Computers wie Arbeitsspeicher, Festplatten, Ein- und Ausgabegeräte verwaltet und diese Anwendungsprogrammen zur Verfügung stellt. Das Betriebssystem bildet dadurch die Schnittstelle zwischen den Hardware-Komponenten und der Anwendungssoftware des Benutzers.[1] Betriebssysteme bestehen in der Regel aus einem Kernel (deutsch: Kern), der die Hardware des Computers verwaltet, sowie speziellen Programmen, die beim Start unterschiedliche Aufgaben übernehmen. Zu diesen Aufgaben gehört unter anderem das Laden von Gerätetreibern. Betriebssysteme finden sich in fast allen Arten von Computern: Als Echtzeitbetriebssysteme auf Prozessrechnern und Eingebetteten Systemen, auf Personal Computern, Tabletcomputern, Smartphones und auf größeren Mehrprozessorsystemen wie z. B. Servern und Großrechnern. Die Aufgaben eines Betriebssystems lassen sich wie folgt zusammenfassen: Benutzerkommunikation; Laden, Ausführen, Unterbrechen und Beenden von Programmen; Verwaltung und Zuteilung der Prozessorzeit; Verwaltung des internen Speicherplatzes für Anwendungen; Verwaltung und Betrieb der angeschlossenen Geräte; Schutzfunktionen z. B. durch Zugriffsbeschränkungen. Die Gewichtung zwischen diesen Aufgaben wandelte sich im Laufe der Zeit, insbesondere wird Schutzfunktionen wie dem Speicherschutz oder begrenzten Benutzerrechten heute eine höhere Bedeutung zugemessen als noch in den 1990er Jahren. Dies macht Systeme allgemein robuster, reduziert z. B. die Zahl der Programm- und Systemabstürze und macht das System auch stabiler gegen Angriffe von außen, etwa durch Computerviren. Dieser Artikel behandelt den Begriff ?Betriebssystem? hauptsächlich im Kontext ?allgemein zur Informationsverarbeitung verwendete Computersysteme?. Daneben sind Betriebssysteme (mit ggf. spezialisierter Funktionalität) grundsätzlich in nahezu allen Geräten im Einsatz, in denen Software betrieben wird (wie Spielecomputer, Mobiltelefone, Navigationssysteme, Maschinen der Maschinenbaubranchen u. v. a.). Auch viele Steuerungssysteme (eingebettetes System) die z. B. in Flugzeugen, Autos, Zügen, oder in Satelliten zu finden sind, besitzen spezialisierte Betriebssysteme. Ein Betriebssystem übernimmt zwei wesentliche Aufgaben, die im Grunde in keinem direkten Zusammenhang zueinander stehen[2]: Die eine Aufgabe besteht darin, dem Anwendungsprogrammierer saubere Abstraktionen der Betriebsmittel zur Verfügung zu stellen (anstelle der unschönen Hardware). Das Betriebssystem bietet somit eine leichter verständliche und besser handhabbare Schnittstelle zur eigentlichen Maschine an und ?versteckt? die Komplexität der darunterliegenden Maschine: ?Der Ansprechpartner für den Programmierer ist also nicht mehr die wirkliche Maschine, sondern eine virtuelle Maschine (Betriebssystem), welche wesentlich einfacher zu verstehen und zu programmieren ist.?[3] Das Betriebssystem erzeugt abstrakte Objekte, um die Komplexität beherrschbar zu machen. Ein Beispiel für eine solche Abstraktion ist die Datei. Diese kann beispielsweise in Form eines Digitalfoto, einer gespeicherten E-Mail-Nachricht oder einer Website vorliegen. Es ist auf jeden Fall einfacher, sich damit zu beschäftigen, als mit den Details von Festplattenspeichern.[4] Die andere Aufgabe besteht darin, die Hardwareressourcen zu verwalten: ?Ein Betriebssystem muss eine geordnete und kontrollierte Zuteilung von Prozessoren, Speichereinheiten und Peripheriegeräten unter den verschiedenen Programmen, welche darum konkurrieren, sicherstellen.?[3] Das Betriebssystem ordnet und kontrolliert die Allokation der Prozessoren, Speicher und Ein-/Ausgabegeräte und überwacht, welches Programm gerade welches Betriebsmittel nutzt. Liegen beispielsweise mehrere Aufträge für einen Drucker vor, so muss festgelegt werden, wie diese abgearbeitet werden. Auf einem modernen Betriebssystem können dadurch auch mehrere Programme gleichzeitig ausgeführt werden. Benutzen mehrere Anwender einen Computer oder ein Netzwerk, dann gewinnen Maßnahmen zur Verwaltung und zum Schutz von Speicher, Ein-/Ausgabegeräten und anderen Betriebsmitteln noch an Bedeutung. Die Benutzer würden sich sonst gegenseitig stören.[5] Die Gesamtheit aller Programme und Dateien, die sämtliche Abläufe bei Betrieb eines Rechners steuern, wird Systemsoftware genannt. Dazu gehören Betriebssysteme, aber auch systemnahe Software wie Compiler, Interpreter und Editoren. Anwendungssoftware wie beispielsweise Browser oder Buchhaltungssoftware benutzen die Systemsoftware für einen ordnungsgemäßen Ablauf.[6] In der Literatur wird der Begriff ?Betriebssystem? innerhalb der Systemsoftware unterschiedlich breit interpretiert. In der DIN-Sammlung 44300 (veraltet, ersetzt durch ISO/IEC 2382:2015 siehe: Liste der DIN-Normen/DIN 1?49999 unter DIN 44300) geht die Definition von seiner Aufgabe und Stellung in einer Programmhierarchie aus: ?Das Betriebssystem wird gebildet durch die Programme eines digitalen Rechensystems, die zusammen mit den Eigenschaften der Rechenanlage die Grundlage der möglichen Betriebsarten des digitalen Rechensystems bilden und insbesondere die Ausführung von Programmen steuern und überwachen.? ? DIN 44300[7] Für Andrew S. Tanenbaum beschränkt sich der Begriff Betriebssystem im Wesentlichen auf den Kernel: ?Editoren, Compiler, Assembler, Binder und Kommandointerpreter sind definitiv nicht Teil des Betriebssystems, auch wenn sie bedeutsam und nützlich sind.?[8] Viele Lehrbücher folgen dieser engeren Sichtweise. Andere Autoren zählen unter anderem auch eine Kommandosprache zum Betriebssystem: ?Außer die Hardware zu verwalten [?], bieten moderne Betriebssysteme zahlreiche Dienste an, etwa zur Verständigung der Prozesse untereinander, Datei- und Verzeichnissysteme, Datenübertragung über Netzwerke und eine Befehlssprache.?[9] Eine noch weitere Fassung des Begriffes, die beispielsweise auch Editoren und Compiler umfasst, geht zum Teil auf ältere Werke des deutschen Sprachraums zurück, lässt sich aber auch in aktueller Literatur noch finden. So zählen die Autoren des Informatik-Dudens auch Übersetzungsprogramme und Dienstprogramme zu den wesentlichen Komponenten eines Betriebssystems.[10] In jüngerer Zeit kann der GNU/Linux-Namensstreit als Beispiel für die Abgrenzungsprobleme angesehen werden. Ungeachtet dessen, wie weit oder wie eng man den Begriff ?Betriebssystem? fasst, enthalten die Installationsmedien für Betriebssysteme für gewöhnlich zusätzliche Dienst- und Anwendungsprogramme. Entwicklungsstufen Die Entwicklung von Computer-Betriebssystemen verlief und verläuft parallel zur Entwicklung und Leistungsfähigkeit verfügbarer Hardware: Beide Linien bedingten sich gegenseitig und ermöglichten bzw. erforderten Weiterentwicklungen auf der ?anderen? Seite. Die Entwicklung verlief zum Teil in kleinen, manchmal in größeren Sprüngen: Lochkarten verarbeitende Systeme (gilt sinngemäß auch für Lochstreifen) gehören mittlerweile (seit Anfang der 1970er Jahre) der Vergangenheit an. Jedoch sind sie ein guter Ansatz zur Betrachtung der Systementwicklung: In diesen räumlich relativ großen Systemen gab es noch keine externen elektronischen Speichermedien. Die Programme lagen (in Maschinensprache) in Form von Lochkartenstapeln vor und wurden durch den Operator über den Lochkartenleser in den internen Speicher ?eingelesen?. Nach der ?Ende-Karte? wurde das Anwendungsprogramm gestartet, das seine Eingabedaten je nach Aufgabenstellung ebenfalls über den Kartenleser lesen (deshalb der Begriff Stapelverarbeitung, engl. batch processing, queued systems) und seine Ergebnisse direkt über einen Drucker und/oder über den Kartenstanzer ausgeben musste. Vor- und nachgelagert waren, mithilfe elektro-mechanischer Geräte (Kartenlocher, Mischer, Sortierer) ausgeführt, Erfassungs-, Misch- und Sortiervorgänge erforderlich. Bereits zu diesem Zeitpunkt war die interne Verarbeitung deutlich schneller als die Ein-/Ausgabegeräte; das Lesen eines Lochkartenstapels (Karton mit 2000 Karten) dauerte ca. 5?10 Minuten, die Arbeitsspeichergrößen solcher Rechner lagen bei ca. 16 bis 64 kB (Beispiel siehe System/360). Diese Maschinen besaßen kein konventionelles Betriebssystem, wie es heute geläufig ist. Lediglich ein Kontrollprogramm (resident monitor) wurde im Speicher gehalten und sorgte für den reibungslosen Ablauf, indem es die Kontrolle an die momentan auszuführenden Programme übergab. Der Rechner konnte stets nur ein Programm nach dem anderen ausführen. Eine Weiterentwicklung ? Multiprogrammed Batch Systems ? konnte zusätzliche Geräte unterstützen (Magnetbandeinheiten, erste Magnetplatten mit z. B. 7,25 MB Speichervolumen), mehrere Programme gleichzeitig ausführen (z. B. in 3 'Partitionen') sowie Programme und Daten auf externen Speichern halten. Eine schnellere Abarbeitung war möglich, da die Zeit für das Lesen und Ausgeben der Kartenstapel entfiel ? und die Prozessoren schneller wurden. Hier wurden Mechanismen wie das Spooling (Zwischenausgabe von Druckerdaten auf Magnetband mit verzögertem, parallel möglichem Drucken) und die Möglichkeit des Offline-Betriebs bereits ausgiebig genutzt. Jedoch war ein Programm nötig, welches sich der Aufgaben E/A-Verwaltung, Speicherverwaltung und vor allem CPU-Scheduling etc. annimmt. Ab diesem Zeitpunkt konnte man von ersten Betriebssystemen reden. Die nächsten Schritte waren dann Folgen der jeweiligen Aufgabenbereiche, die den Systemen zukamen. Folgende Systeme sind entstanden und bis zum heutigen Tage im Einsatz: Parallele Systeme, Verteilte Systeme, Personal-Computer-Systeme, Time-Sharing-Systeme, Real-Time-Systeme und in neuester Zeit auch die Personal Digital Assistants und Smartphones. Im PC-Bereich sind derzeit die meistgenutzten Betriebssysteme die verschiedenen Varianten von Windows (führend bei Systemen mit GUI), BSD inkl. Apple macOS und GNU/Linux (führend bei Servern). Für spezielle Anwendungen (Beispiel: industrielle Steuerung) werden auch experimentelle Betriebssysteme für Forschungs- und Lehrzwecke eingesetzt. Neben den klassischen Varianten gibt es noch spezielle Betriebssysteme für verteilte Systeme, bei denen zwischen dem logischen System und den physikalischen System(en) unterschieden wird. Der logische Rechner besteht aus mehreren physikalischen Rechnereinheiten. Viele Großrechner, Number-Cruncher und die Systeme aus dem Hause Cray arbeiten nach diesem Prinzip. Eines der bekanntesten Betriebssysteme im Bereich verteilte Systeme ist Amoeba. Siehe auch: Liste von Betriebssystemen Aufgaben Zu den Aufgaben eines Betriebssystems gehören meist: Speicherverwaltung Verwaltung der Systemressource Hauptspeicher. Protokollierung der Speichernutzung. Reservierung und Freigabe von Speicher. (Prozess)-Verwaltung Überwachung der Speicherzugriffe und gegebenenfalls Beenden von Prozessen bei einer Schutzverletzung. Erzeugung neuer Prozesse (entweder auf Anforderung des Betriebssystems oder auf Aufforderung anderer schon existierender Prozesse) und Reservierung des von den Prozessen benötigten Speichers. Kommunikation und Synchronisation von Prozessen untereinander (Interprozesskommunikation) Geräte- und Dateiverwaltung Effiziente Zuweisung von Ein-/Ausgabegeräten und Vermittlungseinheiten (Datenkanäle, Steuereinheiten), Vermeidung von Konflikten Initiierung, Überwachung der Ausführung, Terminierung von Ein-/Ausgabevorgängen. Verwaltung des Dateisystems. Erzeugung eines Namensraums mit zugehörigen Speicherobjekten und gegebenenfalls weiteren Objekten. Rechteverwaltung Voneinander unabhängige Benutzer/Programme dürfen sich gegenseitig nicht stören. Abstraktion Verbergen der Komplexität der Maschine vor dem Anwender Abstraktion des Maschinenbegriffes (nach Coy): Reale Maschine = Zentraleinheit + Geräte (Hardware) Abstrakte Maschine = Reale Maschine + Betriebssystem Benutzermaschine = Abstrakte Maschine + Anwendungsprogramm Als Gerät aus der Sicht eines Betriebssystems bezeichnet man aus historischen Gründen alles, was über Ein-/Ausgabekanäle angesprochen wird. Dies sind nicht nur Geräte im herkömmlichen Sinn, sondern mittlerweile auch interne Erweiterungen wie Grafikkarten, Netzwerkkarten und anderes. Die (Unter-)Programme zur Initialisierung und Ansteuerung dieser ?Geräte? bezeichnet man zusammenfassend als Gerätetreiber. Betriebsmittelverwaltung und Abstraktion Als Betriebsmittel oder Ressourcen bezeichnet man alle von der Hardware eines Computers zur Verfügung gestellten Komponenten, also den Prozessor (bei Mehrprozessorsystemen die Prozessoren), den physikalischen Speicher und alle Geräte wie Festplatten-, Disketten- und CD-ROM-Laufwerke, Netzwerk- und Schnittstellenadapter und andere. Die Hardware Compatibility List enthält alle Hardware-Produkte, die im Zusammenhang mit einem bestimmten Betriebssystem auf ihre Funktionalität hin getestet wurden. Einführendes Beispiel: Zeitgeberbausteine Moderne Rechnersysteme besitzen Zeitgeberbausteine (Timer). In frühen PCs wurde z. B. der Baustein 8284 des Unternehmens Intel eingesetzt. Dieser Baustein muss zunächst initialisiert werden. Er kann dann nach Ablauf einer Zeitspanne oder periodisch den Prozessor unterbrechen und ihn zur Abarbeitung einer eigenen Routine veranlassen. Neben der Initialisierung ist eine Unterbrechungsroutine zu erstellen, deren Aufruf in einer dafür geeigneten Sprache (meist Assembler) programmiert werden muss. Da Unterbrechungen asynchron auftreten, sind komplexe Verhältnisse hinsichtlich der Datenstrukturen zu berücksichtigen. Genaue Kenntnisse des Bausteins (Datenblatt), der Computerhardware (Unterbrechungsbehandlung) und des Prozessors sind erforderlich. Die einzelnen Komponenten, die an diesem Prozess beteiligt sind, fasst man unter dem Begriff Rechnerarchitektur zusammen. Virtuelle Prozessoren Ein modernes Mehrprogrammbetriebssystem verwendet einen solchen Zeitgeberbaustein, um den normalerweise einzigen Prozessor periodisch (normalerweise im Millisekundenbereich) zu unterbrechen und eventuell mit einem anderen Programm fortzufahren (sogenanntes präemptives Multitasking). Die Initialisierung und die Unterbrechungsroutine werden dabei vom Betriebssystem implementiert. Auch wenn nur ein einzelner Prozessor zur Verfügung steht, können mehrere Programme ausgeführt werden, jedes Programm erhält einen Teil der Prozessorzeit (Scheduling). Jedes Programm verhält sich, bis auf die verlangsamte Ausführungszeit, so, als hätte es einen eigenen virtuellen Prozessor. Virtuelle Zeitgeber Über einen Systemruf, zum Beispiel alarm, wird jedem Programm darüber hinaus ein eigener virtueller Zeitgeber zur Verfügung gestellt. Das Betriebssystem zählt die Unterbrechungen des Original-Zeitgebers und informiert Programme, die den alarm-Systemruf verwendeten. Die einzelnen Zeitpunkte werden über eine Warteschlange verwaltet. Abstraktion Die Hardware des Zeitgebers ist damit vor den Programmen verborgen. Ein System mit Speicherschutz erlaubt den Zugriff auf den Zeitgeberbaustein nur über den Kernel und nur über exakt definierte Schnittstellen (meist Systemrufe genannt, die über spezielle Prozessorbefehle wie TRAP, BRK, INT realisiert werden). Kein Programm kann somit das System gefährden, die Verwendung des virtuellen Zeitgebers ist einfach und portabel. Der Anwender oder Programmierer braucht sich nicht um die (komplexen) Details zu kümmern. Virtualisierung weiterer Betriebsmittel So wie Prozessoren und Zeitgeber virtualisiert werden, ist dies auch für alle anderen Betriebsmittel möglich. Dabei werden einige Abstraktionen teilweise nur als Software implementiert, andere erfordern spezielle Hardware. Dateisysteme Über Dateisysteme werden die Details der externen Speichersysteme (Festplatten-, Disketten- oder CD-ROM-Laufwerke) verborgen. Dateinamen und Verzeichnisse erlauben den bequemen Zugriff, die eigentlich vorhandene Blockstruktur und die Geräteunterschiede sind vollkommen unsichtbar. Interner Speicher Der interne Speicher (RAM) wird in Blöcke (Kacheln) aufgeteilt und den entsprechenden Programmen auf Anforderung zur Verfügung gestellt. Allenfalls noch vorhandene Daten werden zuvor gelöscht. Über virtuellen Speicher wird bei vielen Systemen jedem Programm ein kontinuierlicher (zusammenhängender) Bereich zur Verfügung gestellt. Dieser Speicher ist physikalisch nicht notwendigerweise zusammenhängend, es können sogar unbenutzte Teile auf den externen Speicher ausgelagert sein. Der virtuelle Speicher eines Programms kann sogar größer als der reale Speicher sein. Netzwerk Die Details der Netzwerkzugriffe werden verborgen, indem auf die eigentliche Hardware (Netzwerkkarte) ein Protokollstapel aufgesetzt wird. Die Netzwerksoftware erlaubt beliebig viele virtuelle Kanäle. Auf der Ebene der Sockets (Programmierung) ist die Netzwerkkarte vollkommen unsichtbar, das Netzwerk hat viele neue Fähigkeiten (bidirektionale, zuverlässige Datenströme, Adressierung, Routing) bekommen. Bildschirm Als Grafische Benutzeroberfläche (GUI, Abk. für engl. Graphical User Interface) wird generell eine Bildschirmausgabe beschrieben, wenn sie über eine Eingabeaufforderung hinausgeht. Mit den richtigen Grafikkarten und Bildschirmen ist die Darstellung von geometrischen Objekten (Linien, Kreisen, Ellipsen, aber auch Schriftattributen und Farben) auf dem Bildschirm möglich, aus denen sich komplexere geometrische Elemente wie Knöpfe, Menüs etc. Benutzeroberflächen zum einfachen Steuern von Programmen erstellen lassen. Die Grafikkarte als Hardware ist für den Programmierer und Anwender vollkommen verborgen. Geschichte Erste Betriebssysteme (bis 1980) Die ersten Computer kamen ohne echtes Betriebssystem aus, da lediglich ein einziges Programm im Stapelbetrieb geladen sein konnte und die unterstützte Hardware noch sehr überschaubar war. Als Betriebssystem-Vorläufer gilt der 1956 in Gestalt des GM-NAA I/O bei General Motors für die IBM 704 erfundene resident monitor, ein Stück Software, das nach Beendigung eines Stapelauftrags den Folgeauftrag automatisch startete. 1959 entstand daraus das SHARE Operating System (SOS), das bereits über eine rudimentäre Ressourcenverwaltung verfügte.[11] Dessen Nachfolger IBSYS verfügte bereits über eine einfache Shell mit Kommandosprache.[12] 1961 entstand mit dem Compatible Timesharing System (CTSS) für die IBM 7094 am MIT das erste Betriebssystem für Mehrbenutzerbetrieb. Das ermöglichte die quasi-gleichzeitige Benutzung der Rechenanlage durch mehrere Anwender mittels angeschlossener Terminals.[13] Eine Vielzahl gleichzeitig geladener Programme erforderte es, die von ihnen beanspruchten Speicherbereiche voneinander abzugrenzen. Als Lösung entstand 1956 an der TU Berlin der Virtuelle Speicher[14] und wurde Mitte der 1960er Jahre erstmals in Großrechner-Betriebssystemen umgesetzt. Damals lieferte meist der Hersteller der Hardware das Betriebssystem, das nur auf einer bestimmten Modellreihe, ja sogar nur auf einem bestimmten System lief, sodass Programme weder zwischen verschiedenen Computern, noch über verschiedene Generationen hinweg portierbar waren. Mit der Einführung der Modellreihe System/360 von IBM führte IBM 1964 das Betriebssystem OS/360 in verschiedenen Versionen (OS/360 für rein lochkartenbasierte Systeme, TOS/360 für Maschinen mit Bandlaufwerken, DOS/360 für solche mit Festplatten) ein. Es war das erste Betriebssystem, das modellreihenübergreifend eingesetzt wurde. Ab 1963 wurde Multics in Zusammenarbeit von MIT, General Electric und den Bell Laboratories (Bell Labs) von AT&T entwickelt, das jedoch erst ab 1969 bis 2000 im Einsatz war. Multics wurde in PL/I programmiert. Inspiriert von den Arbeiten an Multics startete eine Gruppe um Ken Thompson und Dennis Ritchie an den Bell Labs 1969 mit der Entwicklung von Unix. Unix wurde in den Jahren 1972?1974 bis auf wenige Teile in der höheren Programmiersprache C mit dem Ziel der Portabilität neu implementiert, um auf der damals neuen PDP-11 lauffähig zu sein. In weiterer Folge entwickelte sich UNIX zu einer ganzen Familie von Systemen für verschiedenste Hardwareplattformen. Die ersten PCs wie der Altair 8800 von 1975 verfügten zunächst über kein Betriebssystem. Daher mussten sämtliche Aktionen in einem reinen Maschinencode eingegeben werden. Sein erstes Betriebssystem erhielt der Altair 8800 in Form eines BASIC-Interpreters.[15] Dieser stellte sowohl eine Programmierumgebung dar als auch die allgemeine Schnittstelle zwischen dem Benutzer und der Hardware (die dieser Interpreter direkt ansteuerte). Er war Laufzeitumgebung und Benutzerschnittstelle zugleich; über bestimmte Befehle konnte der Benutzer beispielsweise Daten laden und speichern und Programme ausführen. 1974 erfand Gary Kildall CP/M, das als erstes universelles PC-Betriebssystem gilt. Durch seine modulare Bauweise (der plattformunabhängige Kernel BDOS setzte auf einer Hardware-Treiberschicht namens BIOS auf) ließ es sich mit vertretbarem Aufwand auf zahlreiche zueinander inkompatible PC-Plattformen portieren. Eine Programmierumgebung steuerte nun (meistens) nicht mehr die Hardware direkt an, sondern nutzte die Schnittstellen des Betriebssystems. Daher war auch die Programmierumgebung nicht mehr nur auf einer bestimmten Hardware lauffähig, sondern auf zahlreichen PCs. Für die aufkommende Computergrafik reichten rein textbasierte Benutzerschnittstellen nicht mehr aus. Die 1973 eingeführte Xerox Alto war das erste Computersystem mit einem objektorientierten Betriebssystem[16] und einer grafischen Benutzeroberfläche, was diesen Rechner für Desktop-Publishing geeignet machte und einen großen Fortschritt in Sachen Benutzerfreundlichkeit darstellte.[17] Meilensteine Der C64, ein Heimcomputer der 1980er Jahre C64C-System mit VC1541-II-Diskettenlaufwerk und 1084S RGB-Monitor (1986) In den 1980er Jahren wurden Heimcomputer populär. Diese konnten neben nützlichen Aufgaben auch Spiele ausführen. Die Hardware bestand aus einem 8-Bit-Prozessor mit bis zu 64 KiB RAM, einer Tastatur und einem Monitor- bzw. HF-Ausgang. Einer der populärsten dieser Computer war der Commodore C64 mit dem Mikroprozessor 6510 (einer Variante des 6502). Dieser Computer verfügte über einen in einem 8 KiB-ROM Systemkern namens Kernal mitsamt einem BIOS (Basic Input/Output System), das die Geräte Bildschirm, Tastatur, serielle IEC-Schnittstelle für Diskettenlaufwerke bzw. Drucker, Kassetteninterface initialisierte und über ein Kanalkonzept teilweise abstrahierte. Über ein 8 KiB-ROM-BASIC, das auf die Funktionen des BIOS aufsetzte, konnte das System bedient und programmiert werden. Das Betriebssystem dieses Computers kann auf der Ebene des BASIC-Interpreters als gute Hardwareabstraktion angesehen werden. Natürlich sind weder Kernel, Speicher- oder sonstiger Hardwareschutz vorhanden. Viele Programme, vor allem auch Spiele, setzten sich über das BIOS hinweg und griffen direkt auf entsprechende Hardware zu. Basic-Programm Maschinensprachenprogramm 8k ROM BASIC PRINT#,FOR 8k ROM-BIOS (Gerätetreiber) / Kernal / JSR Hardware (Prozessor(en), Speicher, Geräte) Abstraktionsschichten im Betriebssystem des Heimcomputers C64 Die grafische Benutzeroberfläche (GUI) von Apple Beispiel für eine grafische Benutzeroberfläche ? Hauptartikel: Grafische Benutzeroberfläche und Desktop-Umgebung Xerox entwickelte im Palo Alto Research Center (PARC) das Smalltalk-Entwicklungssystem (Xerox entwickelte mit ALTO (1973) und Star (1981) erste Rechner mit grafischer Benutzeroberfläche). Das Unternehmen Apple bot Xerox an, die Technologie zu kaufen; da PARC aber vor allem ein Forschungszentrum war, bestand kein Interesse an Verkauf und Vermarktung. Nachdem Apple-Chef Steve Jobs Xerox Aktienanteile von Apple anbot, wurde ihm erlaubt, einigen Apple-Entwicklern die Xerox-Demos zu zeigen. Danach war den Apple-Entwicklern auf jeden Fall klar, dass der grafischen Benutzeroberfläche die Zukunft gehörte, und Apple begann, eine eigene grafische Benutzeroberfläche zu entwickeln. Viele Merkmale und Prinzipien jeder modernen grafischen Benutzeroberfläche für Computer, wie wir sie heute kennen, sind originale Apple-Entwicklungen (Pull-down-Menüs, die Schreibtischmetapher, Drag and Drop, Doppelklicken). Die Behauptung, Apple habe seine GUI von Xerox illegal kopiert, ist ein ständiger Streitpunkt; es existieren jedoch gravierende Unterschiede zwischen einem Alto von Xerox und der Lisa/dem Macintosh. Der Mac-OS-Nachfolger Apple-I-Computer Mitte der 1990er Jahre steckte das Unternehmen Apple in einer tiefen Krise; es schien kurz vor dem Ruin. Ein dringliches Problem war dabei, dass Apples Betriebssystem Mac OS als veraltet galt, weshalb sich Apple nach Alternativen umzusehen begann. Nach dem Scheitern des wichtigsten Projektes für ein modernes Betriebssystem mit dem Codenamen Copland sah sich Apple gezwungen, Ausschau nach einem für die eigenen Zwecke verwendbaren Nachfolger zu halten. Zuerst wurde vermutet, dass Apple das Unternehmen Be, mit ihrem auch auf Macs lauffähigen Betriebssystem BeOS, übernehmen würde. Die Übernahmeverhandlungen scheiterten jedoch im November 1996, da der frühere Apple-Manager und Chef von Be Jean-Louis Gassée im Falle einer Übernahme 300 Millionen US-Dollar und einen Sitz im Vorstand verlangte. Da Gil Amelio versprochen hatte, bis zur Macworld Expo im Januar 1997 die zukünftige Strategie zu Mac OS zu verkünden, musste schnell eine Alternative gefunden werden. Überraschend übernahm Apple dann noch im Dezember 1996 für 400 Mio. US-Dollar das Unternehmen NeXT des geschassten Apple-Gründers Steve Jobs mitsamt dem Betriebssystem NeXTStep bzw. OPENSTEP, das Apples Grundlage für die nachfolgende neue Betriebssystem-Generation werden sollte. Unter dem Codenamen Rhapsody wurde es weiterentwickelt zu einem UNIX für Heim- und Bürocomputer mit dem Namen ?Mac OS X?. Ab Version 10.5 ist es konform mit der Single UNIX Specification; später hieß es einfach ?OS X?, inzwischen ?macOS?. Das Betriebssystem OPENSTEP war die erste Implementierung der OpenStep-Spezifikationen, die zusammen mit Sun entwickelt wurden. Deren Entwicklung hatte Einfluss auf Java und somit letztlich auf Android. Disk Operating System (DOS) ? Hauptartikel: Disk Operating System Der Ursprung von DOS liegt in CP/M und wurde 1974 von Digital Research eingesetzt. Die Portierung auf den Motorola 68000, genannt CP/M-68k, selbst kein großer kommerzieller Erfolg, wurde zur Grundlage für TOS, dem Betriebssystem des Atari ST. MS-DOS Version 1.0 erschien 1981 als Nachbildung von CP/M und wurde für IBM-PCs eingesetzt. Es setzt auf das BIOS auf und stellt Dateisystemoperationen zur Verfügung. Die ersten IBM-PCs waren ganz ähnlich wie der C64 aufgebaut. Auch sie verfügten über ein eingebautes BIOS zur Initialisierung und Abstraktion der Hardware. Sogar ein BASIC-Interpreter war vorhanden. Im Gegensatz zum BIOS wurde auf BASIC jedoch in den kompatiblen Rechnern anderer Unternehmen verzichtet. Der PC konnte mit seinem Intel-8088-Prozessor (16-Bit-Register) bis zu 1 MiB Speicher adressieren, die ersten Modelle waren jedoch nur mit 64 KiB ausgestattet. Diskettenlaufwerke lösten die alten Kassettenrekorder als Speichermedium ab. Sie erlauben vielfaches Schreiben und Lesen einzeln adressierbarer 512-Byte-Blöcke. Die Benutzung wird durch ein Disk Operating System (DOS) vereinfacht, das ein abstraktes Dateikonzept bereitstellt. Blöcke können zu beliebig großen Clustern (Zuordnungseinheit ? kleinste für das Betriebssystem ansprechbare Einheit) zusammengefasst werden. Dateien (logische Informationseinheiten) belegen einen oder mehrere dieser (verketteten) Cluster. Eine Diskette kann viele Dateien enthalten, die über Namen erreichbar sind. Auf den ersten PCs war kein Speicherschutz realisiert, die Programme konnten daher an DOS vorbei direkt auf BIOS und sogar auf die Hardware zugreifen. Erst spätere PCs wurden mit dem Intel-80286-Prozessor ausgestattet, der Speicherschutz ermöglichte. MS-DOS stellte auch keine für alle Zwecke ausreichende Abstraktion zur Verfügung. Es ließ sich nur ein Programm gleichzeitig starten, die Speicherverwaltung war eher rudimentär. Ein Teil der Hardware wurde nicht unterstützt und musste von Programmen direkt angesprochen werden, was dazu führte, dass beispielsweise für jedes Spiel die Soundkarte neu konfiguriert werden musste. Die Performance einiger Routinen, speziell zur Textausgabe, war verbesserungswürdig. Viele Programme setzten sich daher über das Betriebssystem hinweg und schrieben z. B. direkt in den Bildschirmspeicher. MS-DOS wurde mit einem Satz von Programmen (sogenannten Werkzeugen) und einem Kommandointerpreter (COMMAND.COM) ausgeliefert. Anwenderprogramm (COMMAND.COM, WORDSTAR) MSDOS (Dateisystem) INT BIOS (Gerätetreiber) INT Hardware (Prozessor(en), Speicher, Geräte) Abstraktionsschichten eines PC unter DOS Windows ? Hauptartikel: Microsoft Windows 1983 begann das Unternehmen Microsoft mit der Entwicklung einer grafischen Betriebssystem-Erweiterung (?Grafik-Aufsatz?) für MS-DOS namens Windows. Das MS-DOS und BIOS-Design der PCs erlaubten keine Weiterentwicklung in Richtung moderner Serverbetriebssysteme. Microsoft begann Anfang der 1990er ein solches Betriebssystem zu entwickeln, das zunächst als Weiterentwicklung von OS/2 geplant war (an dessen Entwicklung Microsoft zwischen 1987 und 1991 beteiligt war): Windows NT 3.1 (Juli 1993). Für den Consumer-Markt brachte Microsoft am 15. August 1995 Windows 95 heraus; es setzt auf MS-DOS auf. Dieser ?Consumer-Zweig? wurde mit der Veröffentlichung von Windows Millennium (August/September 2000) abgeschlossen. Aufbau von Windows NT: Über die Hardware wurde eine Abstraktionsschicht, der Hardware Abstraction Layer (HAL) gelegt, auf den der Kernel aufsetzte. Verschiedene Gerätetreiber waren als Kernelmodule ausgeführt und liefen wie der Kernel im privilegierten Kernel Mode. Sie stellten Möglichkeiten der E/A-Verwaltung, Dateisystem, Netzwerk, Sicherheitsmechanismen, virtuellen Speicher usw. zur Verfügung. Systemdienste (System Services) ergänzten das Konzept; wie ihre Unix-Pendants, die daemons, waren sie in Form von Prozessen im User-Mode ausgeführt. OS/2- Programme Win32-Anwendungen DOS- Programme Win16- Programme POSIX- Programme User Mode Andere DLLs DOS- System Windows on Windows OS/2- Subsystem Win32 Subsystem (kernel32.dll, user32.dll, gdi32.dll) POSIX- Subsystem Systemdienste Kernel Mode Ein-/Ausgabe-Manager (Dateisystem, Netzwerk) Objektmanager/Security Resource Manager/Processmanager Local Procedure Call Manager/Virtual Memory Manager Mikrokernel Window-Manager ist gekennzeichnet durch seine Schlichtheit und Einfachheit. Beispielsweise besitzt das iPhone auf der Vorderseite nur ein Bedienelement und das Display. Der iPod weist auch eine starke Reduktion auf, welche an der klaren Trennung zwischen Ein- und Ausgabe erkennbar ist. Das Prinzip zeigt sich auch in der begrenzten Anzahl von Kabeln, da Apples Tastaturen und Mäuse sich durch Bluetooth verbinden lassen. mme des Gerätes können sowohl in vertikaler als auch horizontaler Orientierung des Bildschirms bedient werden; der eingebaute Bewegungssensor Condition: Gebraucht, Condition: Sher wenig gebraucht, top Zustand, alles mit OVP, Ein-/Ausgangsanschlüsse: SATA III,HDMI,USB 3.0,Ethernet (RJ-45), Produkttyp: Aufrüst-Kit, Erweiterungssteckplätze: PCI Express, Anzahl der Prozessorkerne: 4, CPU-Taktfrequenz: 4,2 GHz, Speicherart: DDR4 SDRAM, Anzahl der Speicher-Steckplätze: 4, CPU-Marke: Intel, Sockeltyp: LGA 1151, Beschreibung des Paketinhalts: Intel Core i7 6700K mit Alpine 11 GT Lüfter + ASRock Z270 Taichi + MSI Radeon R9 290 Gaming 4G + 8GB Corsair RAM + LEPA G650 GOLD Modular Netzteil - 650 Watt mit GOLD Zertifizierung + Zwei 2,5" HDDs, Mainboard-Funktionen: Integriertes Audio, Herstellernummer: 90-MXB4P0-A0UAYZ, CPU L2-Cache: 8 MB, Angebotspaket: Ja, Mainboard-Marke: ASRock, Formfaktor: ATX, CPU-Serie: Core i7 6. Gen, CPU L3-Cache: 8 MB

PicClick Insights PicClick Exclusive
  •  Popularity - 880 views, 23.8 views per day, 37 days on eBay. Super high amount of views. 1 sold, 0 available. Super high amount of bids.
  •  Price -
  •  Seller - 267+ items sold. 0% negative feedback. Great seller with very good positive feedback and over 50 ratings.
Similar Items