Data Mining & Clusteranalyse

 

Der feine Unterschied: Für den einen sind es Pommes de terre sautées, für den anderen Bratkartoffeln.

 

#include <iostream>

int main()

{

   std::cout << "Hallo Welt!\n";

}

Unix ist einfach. Es erfordert lediglich ein Genie, um seine Einfachheit zu verstehen. ( Dennis Ritchie )

Unix wurde nicht entwickelt, um seine Benutzer daran zu hindern, dumme Dinge zu tun, denn das würde diese auch davon abhalten, schlaue Dinge zu tun. ( Doug Gwyn )

Unix sagt niemals – bitte -. ( Rob Pike )

Was ist ein Algorithmus ?

Ein Algorithmus ist nichts anderes als ein Berechnungsverfahren. 

Jedes Kind lernt in der Schule einen Algorithmus, wie man ganze Zahlen addiert, multipliziert oder dividiert - solche Berechnungen sind automatisierbar und können auch auf Maschinen übertragen werden.

Mathematische Gleichungen und Probleme sind also seit jeher untrennbar mit Berechnungsverfahren verbunden, und im Laufe der Zeit begannen die Menschen auch danach zu streben, solche Verfahren automatisch abarbeiten zu lassen.

Unser Gehirn ist also nicht mit einem Computer zu vergleichen, zumindest nicht mit einem der heutigen Computer. Ob wir dieses meta - algorithmische Denken irgendwann einmal so verstehen, dass wir es auch automatisieren können, vielleicht sogar auch als versteckten Algorithmus erkennen, kann man heute nicht sagen.

Es gibt noch viel in uns zu entdecken. 

Die Wissenschaft ist eine Wissenschaft, die Wissen schafft ! ( Volksmund )

 

Operative Consultant SAP NetWeaver 7.0 BI

SAP NetWeaver ist ein Produkt der Firma SAP, die NetWeaver als Plattform für Geschäftsanwendungen bezeichnet. Grundlage für alle Anwendungen auf NetWeaver ist der SAP NetWeaver Application Server.

Das Produkt fasst zahlreiche Komponenten zusammen, die für Unternehmensanwendungen relevant sind, darunter ERP, Process Integration, Business Intelligence, ein Portal, mehrere Anwendungsserver und weitere Funktionen zur Unterstützung von Unternehmensanwendungen. Dabei werden die Integrationselemente in mehrere Level unterteilt. Sie umfassen die Endbenutzerintegration - Unternehmensportal, Kollaborationsfunktionen und Multikanal – Zugang, Informationsintegration, Prozessintegration und die Applikationsplattform.

SAP NetWeaver ist die Grundlage für eine Reihe von Geschäftsanwendungen sowie einer Reihe von Basisfunktionen, wie die modulübergreifende Suche. NetWeaver ist größtenteils mit der ABAP - Programmiersprache erstellt worden, verwendet aber auch C, C++ und Java EE.

Die NetWeaver - Plattform ist offen, um über eine Serviceorientierte Architektur ( SOA ) – im SAP - Sprachgebrauch Enterprise Service Oriented Architecture ( ESOA ) genannt – auch Fremdsysteme anzuschließen.

Data – Mining 

Versteht man die systematische Anwendung statistischer Methoden auf große Datenbestände mit dem Ziel, neue Querverbindungen und Trends zu erkennen. Solche Datenbestände können nicht manuell verarbeitet werden, sodass man computergestützte Methoden benötigt. Die Methoden können aber auch auf kleinere Datenmengen angewendet werden. In der Praxis wurde der Unterbegriff „Data - Mining“ auf den gesamten Prozess der sogenannten „Knowledge Discovery Databases“ ( Wissensentdeckung in Datenbanken ; KDD ) übertragen, der auch Schritte wie die Vorverarbeitung beinhaltet, während Data - Mining eigentlich nur den Analyseschritt des Prozesses bezeichnet.

Aufgabenstellungen des Data – Mining

Typische Aufgabenstellungen des Data - Mining sind:

  • Ausreißererkennung: Identifizierung von ungewöhnlichen Datensätzen: Ausreißern, Fehlern, Änderungen
  • Clusteranalyse: Gruppierung von Objekten aufgrund von Ähnlichkeiten
  • Klassifikation: bisher nicht Klassen zugeordnete Elemente werden den bestehenden Klassen zugeordnet.
  • Assoziationsanalyse: Identifizierung von Zusammenhängen und Abhängigkeiten in den Daten in Form von Regeln wie „Aus A und B folgt normalerweise C“.
  • Regressionsanalyse: Identifizierung von Beziehungen zwischen ( mehreren ) abhängigen und unabhängigen Variablen
  • Zusammenfassung: Reduktion des Datensatzes in eine kompaktere Beschreibung ohne wesentlichen Informationsverlust

Diese Aufgabenstellungen können noch grob gegliedert werden in Beobachtungsprobleme ( Ausreißererkennung, Clusteranalyse ) und Prognoseprobleme ( Klassifikation, Regressionsanalyse ).

Clusteranalyse

Bei der Clusteranalyse geht es darum, Gruppen von Objekten zu identifizieren, die sich auf eine gewisse Art ähnlicher sind als andere Gruppen. Oft handelt es sich dabei um Häufungen im Datenraum, woher der Begriff Cluster kommt. Bei einer dichteverbundenen Clusteranalyse wie beispielsweise DBSCAN oder OPTICS können die Cluster aber beliebige Formen annehmen. Andere Verfahren wie der EM - Algorithmus oder k – Means - Algorithmus bevorzugen sphärische Cluster.

Objekte, die keinem Cluster zugeordnet wurden, können als Ausreißer im Sinne der zuvor genannten Ausreißererkennung interpretiert werden.

Assoziationsanalyse

In der Assoziationsanalyse werden häufige Zusammenhänge in den Datensätzen gesucht und meist als Schlussregeln formuliert. Ein beliebtes ( wenn auch anscheinend fiktives ) Beispiel, das unter anderem in der Fernsehserie Numbers – Die Logik des Verbrechens erwähnt wurde, ist folgendes: bei der Warenkorbanalyse wurde festgestellt, dass die Produktkategorien „Windeln“ und „Bier“ überdurchschnittlich oft zusammen gekauft werden, meist dargestellt in Form einer Schlussregel „Kunde kauft Windeln - Kunde kauft Bier“. Die Interpretation dieses Ergebnisses war, dass Männer, wenn sie von ihren Ehefrauen Windeln kaufen geschickt werden, sich gerne noch ein Bier mitnehmen. Durch Platzierung des Bierregals auf dem Weg von den Windeln zur Kasse konnte angeblich der Bierverkauf weiter gesteigert werden.

Regressionsanalyse

Bei der Regressionsanalyse wird der statistische Zusammenhang zwischen unterschiedlichen Attributen modelliert. Dies erlaubt unter anderem die Prognose von fehlenden Attributswerten, aber auch die Analyse der Abweichung analog zur Ausreißererkennung. Verwendet man Erkenntnisse aus der Clusteranalyse und berechnet separate Modelle für jeden Cluster, so können typischerweise bessere Prognosen erstellt werden. Wird ein starker Zusammenhang festgestellt, so kann dieses Wissen auch gut für die Zusammenfassung genutzt werden.

Clusteranalyse 

Unter Clusteranalyse ( Clustering-Algorithmus, gelegentlich auch: Ballungsanalyse ) versteht man Verfahren zur Entdeckung von Ähnlichkeitsstrukturen in ( großen ) Datenbeständen. Die so gefundenen Gruppen von „ähnlichen“ Objekten werden als Cluster bezeichnet, die Gruppenzuordnung als Clustering. Die gefundenen Ähnlichkeitsgruppen können graphentheoretisch, hierarchisch, partitionierend oder optimierend sein. Die Clusteranalyse ist eine wichtige Disziplin des Data - Mining, dem Analyseschritt des Knowledge Discovery Databases Prozesses.

Bei der Clusteranalyse ist das Ziel neue Gruppen in den Daten zu identifizieren (im Gegensatz zur Klassifikation, bei der Daten bestehenden Klassen zugeordnet werden). Man spricht von einem „uninformierten Verfahren“, da es nicht auf Klassen-Vorwissen angewiesen ist. Diese neuen Gruppen können anschließend beispielsweise zur automatisierten Klassifizierung, zur Erkennung von Mustern in der Bildverarbeitung oder zur Marktsegmentierung eingesetzt werden ( oder in beliebigen anderen Verfahren, die auf ein derartiges Vorwissen angewiesen sind ).

Spezialisierungen

Während die meisten Data - Mining - Verfahren versuchen mit möglichst allgemeinen Daten umgehen zu können, gibt es auch Spezialisierungen für speziellere Datentypen.

Textmining

Im Textmining geht es um die Analyse von großen textuellen Datenbeständen. Dies kann beispielsweise der Plagiats-Erkennung dienen oder um den Textbestand zu klassifizieren.

Webmining

Beim Webmining geht es um die Analyse von verteilten Daten, wie es Internetseiten darstellen. Für die Erkennung von Clustern und Ausreißern werden hier aber nicht nur die Seiten selbst, sondern insbesondere auch die Beziehungen ( Hyperlinks ) der Seiten zueinander betrachtet. Durch die sich ständig ändernden Inhalte und die nicht garantierte Verfügbarkeit der Daten ergeben sich zusätzliche Herausforderungen. Dieser Themenbereich ist auch eng mit dem Information Retrieval verbunden.

Zeitreihenanalyse

In der Zeitreihenanalyse spielen die temporalen Aspekte und Beziehungen eine große Rolle. Hier können mittels spezieller Distanzfunktionen wie der Dynamic – Time – Wraping -Distanz bestehende Data - Mining-Verfahren verwendet werden, es werden aber auch spezialisierte Verfahren entwickelt. Eine wichtige Herausforderung besteht dahin, Reihen mit einem ähnlichen Verlauf zu erkennen, auch wenn dieser etwas zeitlich versetzt ist, aber dennoch ähnliche Charakteristika aufweist.

Probleme des Data – Mining

Daten – Defekte

Viele der Probleme bei Data - Mining stammen aus einer ungenügenden Vorverarbeitung der Daten oder aus systematischen Fehlern und Verzerrung bei deren Erfassung. Diese Probleme sind oft statistischer Natur und müssen bereits bei der Erfassung gelöst werden: aus nicht repräsentativen Daten können keine repräsentativen Ergebnisse gewonnen werden. Hier sind ähnliche Aspekte zu beachten wie bei der Erstellung einer repräsentativen Stichprobe.

Anwendungsgebiete

Neben den Anwendungen in den verwandten Bereichen der Informatik findet Data - Mining auch zunehmend Einsatz in der Industrie:

Entscheidungsunterstützungssystem

  • Im Finanzsektor
  • Rechnungsprüfung zur Betrugserkennung
  • Im Marketing:
  • Marktsegmentierung, beispielsweise Kunden in Bezug auf ähnliches Kaufverhalten bzw. Interessen für gezielte Werbemaßnahmen
  • Warenkorbanalyse zur Preisoptimierung und Produktplatzierung im Supermarkt
  • Zielgruppen - Auswahl für Werbekampagnen
  • Kundenprofil - Erstellung zum Management von Kundenbeziehungen in Customer – Relationship – Management - Systemen
  • Business Intelligence

Im Internet:

  • Angriffserkennung
  • Empfehlungsdienste für Produkte wie beispielsweise Filme und Musik
  • Netzwerkanalyse in sozialen Netzwerken
  • Web – Usage - Mining um das Nutzerverhalten zu analysieren
  • Textmining zur Analyse von großen Textbeständen
  • Pharmakovigilanz ( Arzneimittelüberwachung nach Marktzulassung im Hinblick auf unbekannte unerwünschte Ereignisse )
  • Medizin
  • Pflegewesen
  • Biblioetrie
  • Explorative Datenanalyse
  • Prozessanalyse und - Optimierung:
  • Mit Hilfe des Data - Minings lassen sich technische Prozesse analysieren und die Zusammenhänge der einzelnen Prozessgrößen untereinander ermitteln. Dies hilft bei der Steuerung und Optimierung von Prozessen. Erste erfolgreiche Ansätze konnten bereits in der chemischen Industrie und Kunststoffverarbeitung erreicht werden.

 

Programmiersprachen und deren Einsatzgebiete

C++ = ist eine von der ISO genormte Programmiersprache. C++ ermöglicht sowohl die effiziente und maschinennahe Programmierung als auch eine Programmierung auf hohem Abstraktionsniveau. Der Standard definiert auch eine Standardbibliothek, zu der verschiedene Implementierungen existieren.  

Einsatzgebiete

C++ wird sowohl in der Systemprogrammierung als auch in der Anwendungsprogrammierung eingesetzt und gehört in beiden Bereichen zu den verbreitetsten Programmiersprachen.

Systemprogrammierung

Typische Anwendungsfelder in der Systemprogrammierung sind Betriebssysteme, eingebettete Systeme, virtuelle Maschinen, Treiber und Signalprozessoren. C++ nimmt hier oft den Platz ein, der früher ausschließlich Assemblersprachen und der Programmiersprache C vorbehalten war.

Anwendungsprogrammierung

Bei der Anwendungsprogrammierung kommt C++ vor allem dort zum Einsatz, wo hohe Forderungen an die Effizienz gestellt werden, um durch technische Rahmenbedingungen vorgegebene Leistungsgrenzen möglichst gut auszunutzen. Ab dem Jahr 2000 wurde C++ aus der Domäne der Anwendungsprogrammierung von den Sprachen Java und C# zurückgedrängt.

ABAP = ist eine proprietäre Programmiersprache der Softwarefirma SAP, die für die Programmierung kommerzieller Anwendungen im SAP - Umfeld entwickelt wurde und in ihrer Grundstruktur der Programmiersprache COBOL entfernt ähnelt.

Seit 1990 basieren alle SAP – R/3 - Module auf ABAP, das aus dem Vorgänger SAP R/2 übernommen wurde. Seit der Einführung von SAP NetWeaver bietet die SAP neben ABAP auch eine Ablauf - und Programmierumgebung für Java, und dementsprechend einen ABAP - basierten und einen Java - basierten Applikationsserver an ( SAP Netweaver Applicationsserver ).

Eigenschaften

ABAP ist eine 4GL - Sprache, die speziell für die Massendatenverarbeitung in kommerziellen Anwendungen entwickelt wurde, und bietet u. a. folgende Vorteile gegenüber elementareren Sprachen, in denen solche Funktionen in Bibliotheken liegen:

  • als Open SQL in die Sprache integrierter Datenbankzugriff
  • in die ABAP - Laufzeitumgebung integrierte Performance - Optimierung von Datenbankzugriffen über die SAP - Pufferung
  • interne Tabellen für die dynamische Speicherung und Bearbeitung von tabellarischen Massendaten im Arbeitsspeicher
  • in die ABAP - Laufzeitumgebung integriertes Konzept des Online Transaction Processing (OLTP), bei dem viele Benutzer gleichzeitig auf die zentrale Datenbank zugreifen
  • in die Sprache integrierte Schnittstelle zu anderen Programmierumgebungen über Remote Function Call in die Sprache integrierte Schnittstelle zu XML ( Extensible Markup Language ).

Die Integration solcher Funktionen in die Sprache ist im Wesentlichen vorteilhaft für die statische Überprüfbarkeit und die Ausführungsgeschwindigkeit von Programmen. Im Gegenzug enthält ABAP dadurch auch wesentlich mehr Sprachelemente als andere Programmiersprachen.

ABAP unterstützt ein auf Unterprogrammen und Funktionsbausteinen basierendes, prozedurales und ab Release 6.10 ein auf Klassen und Interfaces basierendes, objektorientiertes Programmiermodell. Beide Modelle sind interoperabel.

Java = ist eine objektorientierte Programmiersprache und eine eingetragene Marke des Unternehmens Sun Microsystems, welches 2010 von Oracle aufgekauft wurde. Die Programmiersprache ist ein Bestandteil der Java – Technologie – diese besteht grundsätzlich aus dem Java – Entwicklungswerkzeug ( JDK ) zum Erstellen von Java - Programmen und der Java - Laufzeitumgebung ( JRE ) zu deren Ausführung. Die Laufzeitumgebung selbst umfasst die virtuelle Maschine ( JVM ) und die mitgelieferten Bibliotheken. Java als Programmiersprache sollte nicht mit der Java - Technologie gleichgesetzt werden, Java - Laufzeitumgebungen führen Bytecode aus, der sowohl aus der Programmiersprache Java als auch aus anderen Programmiersprachen wie Nice und Groovy kompiliert werden kann.

Im Prinzip könnte jede Programmiersprache als Grundlage für Java - Bytecode genutzt werden, meistens existieren aber keine entsprechenden Bytecode - Compiler.

Die Programmiersprache Java dient innerhalb der Java - Technologie vor allem zum Formulieren von Programmen. Diese liegen zunächst als reiner, menschenverständlicher Text vor, dem sogenannten Quellcode. Dieser Quellcode ist nicht direkt ausführbar, erst der Java - Compiler, der Teil des Entwicklungswerkzeugs ist, übersetzt ihn in den maschinenverständlichen Java - Bytecode. Die Maschine, die diesen Bytecode ausführt, ist jedoch typischerweise virtuell – das heißt, der Code wird meist nicht direkt durch Hardware ( etwa einen Mikroprozessor ) ausgeführt, sondern durch entsprechende Software auf der Zielplattform.

Perl = ist eine freie, plattformunabhängige und interpretierte Programmiersprache ( Skriptsprache ), die mehrere Programmierparadigmen unterstützt. Hauptziele sind eine schnelle Problemlösung und größtmögliche Freiheit für Programmierer. Die Bearbeitung von Texten mit Hilfe regulärer Ausdrücke sowie viele frei verfügbare Module, die an einem zentralen Ort (CPAN ) gesammelt werden, sind Stärken der Sprache.

Fortan = ist eine prozedurale, in ihren neuesten Versionen auch eine objektorientierte Programmiersprache, die insbesondere für numerische Berechnungen in Wissenschaft, Technik und Forschung eingesetzt wird.

Netzwerkprotokoll

Ein Netzwerkprotokoll ( auch Netzprotokoll ) ist ein Kommunikationsprotokoll für den Austausch von Daten zwischen Computern bzw. Prozessen, die in einem Rechnernetz miteinander verbunden sind ( verteiltes System ). Die Vereinbarung besteht aus einem Satz von Regeln und Formaten ( Syntax ), die das Kommunikationsverhalten der kommunizierenden Instanzen in den Computern bestimmen ( Semantik ).

Unterscheidungsmerkmale von Netzprotokollen

  • Findet die Kommunikation nur in eine Richtung statt, spricht man von Simplex, fließen die Daten wechselweise in beide Richtungen, von Halbduplex oder gleichzeitig in beide Richtungen, von Vollduplex.
  • Wird die Kommunikation über ein Taktsignal synchronisiert, spricht man von synchroner Datenübertragung, ansonsten von asynchroner Datenübertragung.
  • Die Anzahl von Parteien, die an der Kommunikation teilnehmen: Gibt es für eine Übermittlung immer nur einen Empfänger, spricht man von Unicast, bei Übertragungen an mehrere Teilnehmer von Multicast. Wird das Paket an alle gesandt, so ist es ein Broadcast.
  • Stellung der Kommunikationsteilnehmer: Sind diese untereinander gleichberechtigt, spricht man von Peer - to - Peer oder symmetrischer, anderenfalls von asymmetrischer Kommunikation. Das am weitesten verbreitete asymmetrische Modell ist das Client – Server - System, bei dem ein Dienstanbieter (der Server) Anfragen von verschiedenen Clients bearbeitet (wobei es immer die Clients sind, die die Kommunikation initiieren, d. h. einen Kanal öffnen).
  • Wird nach einer Anfrage auf Antwort gewartet, spricht man von synchroner Kommunikation, andernfalls von asynchroner Kommunikation.
  • Während einer paketorientierten Kommunikation werden Nachrichten bzw. Datenpakete übertragen, beim Streaming wird mit einem kontinuierlichen Datenstrom einzelner Zeichen gearbeitet.
  • Bei verbindungsorientierten (connection oriented) Protokollen wird durch spezielle Paketsequenzen der Anfang und das Ende einer Verbindung definiert. Innerhalb einer solchen Verbindung wird durch das Protokoll meistens gewährleistet, dass Pakete in einer bestimmten Reihenfolge ankommen und/oder sichergestellt, dass die Pakete nochmals gesendet werden, falls sie nicht angekommen sind (zum Beispiel TCP). Verbindungslose (connectionless) Protokolle bieten diesen Komfort nicht, haben aber einen geringeren Overhead (zum Beispiel UDP, RTP).

Aufgaben eines Protokolls

  • Ein sicherer und zuverlässiger Verbindungsaufbau zwischen den an der Kommunikation beteiligten Computern ( Handshake )
  • Das verlässliche Zustellen von Paketen
  • Wiederholtes Senden nicht angekommener Pakete
  • Zustellen der Datenpakete an den/die gewünschten Empfänger
  • Das Sicherstellen einer fehlerfreien Übertragung (Prüfsumme)
  • Das Zusammenfügen ankommender Datenpakete in der richtigen Reihenfolge
  • Das Verhindern des Auslesens durch unbefugte Dritte (durch Verschlüsselung)
  • Das Verhindern der Manipulation durch unbefugte Dritte (durch MACs oder elektronische Signaturen)

Funktionsbeispiel

Anhand des Verbindungsaufbau - Prozederes des TCP - Protokolls soll ein einfaches praktisches Beispiel gezeigt werden ( Handshake - Verfahren ).

  1. Zunächst schickt Computer 1 ein Datenpaket, in dem steht, dass er eine Verbindung zu Computer 2 aufbauen möchte.
  2. Darauf antwortet Computer 2, dass er dazu bereit ist.
  3. Computer 1 bestätigt anschließend Computer 2, dass er verstanden hat, dass Computer 2 bereit ist.

Die Verbindung ist damit hergestellt, und der eigentliche Datenaustausch kann beginnen, im Beispiel eine Dateiübertragung auf Anwendungsebene.

  1. Computer 1 schickt ein Datenpaket, in dem angefragt wird, welche Dateien verfügbar sind.
  2. Darauf antwortet Computer 2 mit einer Liste der verfügbaren Dateien.
  3. Computer 1 schickt ein Datenpaket, in dem eine bestimmte Datei angefordert wird.
  4. Darauf antwortet Computer 2, dass die Datei existiert, beschreibt die Datei und beginnt mit der Übertragung.

Protokolle zur Datenübermittlung

Es gibt eine Reihe von grundsätzlichen Protokollen, die den Datenverkehr in einem Netzwerk regeln. Sie werden vom Netzwerkstack – einem speziellen Systemprogramm – allen weiteren Programmen auf diesem Rechner zur Verfügung gestellt. Diese Protokolle dienen als Standard für die Datenübermittlung zwischen unterschiedlichen Systemen, dienen aber keiner Anwendung durch den Benutzer.

Dabei legt man sich in der Regel auf eines dieser Protokolle für ein Netzwerk fest. Für das Internet wird die Internetprotokollfamilie verwendet, vor allem TCP/IP und UDP.

Auflistung der gängigsten Maßeinheiten:

  • 1.024 Byte = 1 Kilobyte

  • 1.024 Kilobytes = 1 Megabyte 

  • 1.024 Megabyte = 1 Gigabyte - 106    

  • 1.024 Gigabyte = 1 Terabyte - 109

  • 1.024 Terabyte = 1 Petabyte  - 1012

  • 1.024 Petabyte = 1 Exabyte - 1015

  • 1.024 Exabyte = 1 Zettabyte - 1018

  • 1.024 Zettabyte = 1 Yottabyte - 1021

  • 1.024 Yottabyte = 1 Brontobyte - 1024

Unternehmen geben derzeit Implementationen und Verkäufe in Terabyte und Petabyte an. Allerdings zeichnet sich ab, dass ab 2020 die Maßeinheit Exabyte gebräuchlich sein wird.

Was ist ein 1 TB ?

Ein Terabyte ist eine Speichereinheit aus dem Computerbereich und entspricht 1.024 Gigabyte. Die Größe von Festplatten wird entweder in Gigabyte (GB) oder Terabyte (TB) angegeben, RAM Bausteine oder DVD Rohlinge werden in Gigabyte angegeben. CD Rohlinge und Disketten in Megabyte (MB).

1 B = 8 Bits

1 KB = 1.000 = 1 Tausend 103

1 MB = 1.000.000 = 1 Millionen 106

1 GB = 1.000.000.000 = 1 Milliarde 109

1 TB = 1.000.000.000.000 Bytes = 1 Billionen 1012

1 PB = 1.000.000.000.000.000 Bytes = 1 Billiarde 1015

1 EB = 1.000.000.000.000.000.000 Bytes = 1 Trillionen 1018

1 ZB = 1.000.000.000.000.000.000.000 Bytes = 1 Trilliarden 1021

1 YB = 1.000.000.000.000.000.000.000.000 Bytes = 1 Quadrillionen 1024

Ein Byte ist auch eine Informationseinheit, nur etwas größer. In einem Byte sind 8 Bits. Die Größe der Speichermedien, wie Festplatten, USB - Sticks oder SD - Karten werden gewöhnlich in in Bytes angegeben, bzw. Gigabyte, Terrabyte, etc.

Berechnen Sie Ihren Speicherbedarf - Rechenbeispiel:

Eine Normseite - oder auch Schreibmaschinenseite - besteht aus 30 Zeilen a 60 Zeichen bei entsprechender Zeilenschaltung, ergo aus 14.400 Bytes !

Zahlenverständnis

Unser Planet, die Erde, wiegt ca. 5,972 Trilliarden Tonnen und wird täglich durch Meteoriten und Kometenstaub um ca. 100 Tonnen schwerer.

 

 

Gruppenzugehörigkeit: XING Darmstadt - FMEA - IFS FOOD - Qualitätsmanagement in der Produktion - REFA - REFAKIE - SAP Query - SAP Business Warehouse – TimeStudy - DDD / Qualitätssicherung

 

Haftungsausschluss

Alle Angaben dieses Internetangebotes wurden sorgfältig geprüft. Der Hersteller dieser Homepage bemüht sich, dieses Informationsangebot aktuell und inhaltlich richtig sowie vollständig anzubieten. Dennoch ist das Auftreten von Fehlern nicht völlig auszuschließen. Eine Garantie für die Vollständigkeit, Richtigkeit und letzte Aktualität kann daher nicht übernommen werden.

Der Herausgeber kann diese Website nach eigenem Ermessen jederzeit ohne Ankündigung verändern und / oder deren Betrieb einstellen. Er ist nicht verpflichtet, Inhalte dieser Website zu aktualisieren.

Der Zugang und die Benutzung dieser Website geschehen auf eigene Gefahr des Benutzers.

Der Hersteller dieser Homepage ist nicht verantwortlich und übernimmt keinerlei Haftung für Schäden, u.a. für direkte, indirekte, zufällige, vorab konkret zu bestimmende oder Folgeschäden, die angeblich durch den oder in Verbindung mit dem Zugang und / oder der Benutzung dieser Website aufgetreten sind.

Der Betreiber übernimmt keine Verantwortung für die Inhalte und die Verfügbarkeit von Websites Dritter, die über externe Links dieses Informationsangebotes erreicht werden. Der Herausgeber distanziert sich ausdrücklich von allen Inhalten, die möglicherweise straf - oder haftungsrechtlich relevant sind oder gegen die guten Sitten verstoßen.