Allgemeine Hinweise zum Drucken
Ganz am Anfang möchte ich darauf hinweisen dass ich davon die Sonderzeichen wie deutsche Umlaute mittels ihres Codes einzugeben bald abgekommen bin. Wenn diese nicht richtig angezeigt werden dann ist im Browser über das Menü Ansicht die Zeichenkodierung auf ISO-8859-15 ein zu stellen.
Eine Datenverarbeitung findet ständig statt. Alle Lebewesen setzen Reaktionen auf Grund ihrer Erkenntnisse aus der Umwelt. Es werden also Daten aufgenommen und auf Grund des so gewonnenen Gesamtbildes setzt man dann Handlungen. Das Leben ist anders nicht möglich.
Bei der elektronischen Datenverarbeitung geht es nun darum Teile dessen was man wissen will soll muss mittels Berechnungen zu manipulieren und dann das Ergebnis wieder bereit zu stellen. Dazu benützt man einen Computer, was erst einmal Rechenmaschine bedeutet. Wie alle Telefone telefonieren können kann ein heutiger Computer selbstverständlich auch noch als Rechenapparat eingesetzt werden. Häufiger dient er aber in letzter Zeit der Kommunikation und Präsentation und seine Rechenfähigkeit ist zur Herstellung selbiger genutzt.
Eines muss man immer wissen wenn man mit modernen Geräten in erschwinglicher Preisklasse arbeiten will: die Teile sind gelinde gesagt auch heute noch sauteuer. Industriegeräte welche gar nie an die Funktionsvielfalt des Heimgerätes herankommen kosten ein Vielfaches. Allerdings ist der Hauptgrund der hohen Preise der fast unglaublich hohe Ausschuss. Dazu nur ein Beispiel: Stellt man höchste Anforderungen an einen Transistor dann hat man bei der Erzeugung bis 98% Ausschuss! Das kann man auf ca. 92% senken wenn man die besten Ausschusskomponenten für den Heimmarkt verbaut. Das heißt umgekehrt: man vervierfacht den nutzbaren Anteil. Anders kann man für den Normalverdiener erschwingliche Heimgeräte nicht produzieren! So habe ich mal einen Onlineladen nach Speicherkarten für die Digitalkamera durchstöbert. Da kostet eine Industrie-Karte mit halber Speicherkapazität das Doppelte und ist aufgrund der Angaben für eine Digitalkamera zu langsam! Also getrost die billigere kaufen, aber diese nicht in irgendeine moderne Produktionsmaschine eines Industriebetriebes stecken. An sich sind aber auch die so entstandenen Heimcomputer für den Kleinbüro- bzw. Heimbetrieb jahrelang einsetzbar; der Wechsel des Gerätes geschieht normalerweise wenn die Anforderungen der neueren Software an die Hardware zu hoch werden. Außerdem haben diese Geräte eine Bewundernswerte Sicherung eingebaut welche das Schmelzen von Bestandteilen seltener macht: wird es irgendwie zu heiß dann bremst sich automatisch dieses Teil ein. Das ist der Grund warum ich diesen Absatz schreibe. Überlastet man einen Heimcomputer, was meist durch modernste Spiele geschieht, aber auch bei ernsthaften Usern wie ich einer bin zum Beispiel bei der Videobearbeitung, dann wird er immer träger und steht irgendwann scheinbar ganz. Da sollte man so weiter arbeiten dass er abkühlen kann. Und am besten kühlt jedes elektronische Gerät ab wenn man es ausschaltet. Leider passiert das immer dann wenn man unter Zeitdruck steht. (Die Hitze muss auch mit modernen Infrarotscanner-Thermometern von außen gar nicht erkennbar sein, aber irgendeine Stelle ist innen unwahrscheinlich heiß und der Wärmeabfluss funktioniert dann nicht mehr so wie im Normalbetrieb.)
Die einfachste und sparsamste Variante einer EDV-Anlage ist der Einzelplatzcomputer. Er steht also alleine da und ist mit keinen weiteren Computern verbunden. Egal ob alles wie beim Notebook in nur eine Plastikhülle verbaut ist oder sich die Teile über das halbe Zimmer ausbreiten, das Grundschema ist seit der Vorstellung der persönlichen Computer für Mitarbeiter (PC) ca. um 1980 gleich geblieben. Ursprünglich war ein Computer auch in nur einen Kasten eingebaut, der allerdings hatte in etwa die Abmessung eines Kleiderspind und war mit einer Tastatur und einem Monitor ausgestattet anstatt von Lochkartenlesegerät für die Dateneingabe und Lochkartenstanzgerät für die Ausgabe wie in den Zeiten davor. Ich erwähne das weil man die Einheit Tastatur - Kasterl - Bildschirm heute noch als "Konsole" bezeichnet.
Bei einer Comupteranlage unterscheidet man die internen Komponenten und die Peripherie. Der wichtigste Teil ist der Prozessor-Chip (CPU = central process unit). Dazu muss irgendwo gespeichert sein was die CPU bekommen soll, von irgendwo muss sie es her nehmen. Sie lädt beim Einschalten das erste Byte des Speichers, dann das zweite usw. bis ein Maschinbefehl komplett ist. Dieser besteht aus einer Zahl welche die CPU veranlasst einen bestimmten Befehl auszuführen. Ich habs mal mit dem Einstellen am Drehknopf der Waschmaschine verglichen. Und in den weiteren Bytes ist die Adresse kodiert von wo die dazu benötigten Daten zu laden sind bei Ladebefehlen bzw. wohin der Inhalt der CPU gespeichert werden soll bei Speicherbefehlen usw. Die Intel-CPUs (und sie sind bei weitem nicht die aufwendigsten!) haben einen Maschinbefehlssatz von einigen Hundert. Es kann also ein Computer nur in Zusammenarbeit von CPU und Speicher funktionieren. Dann erfährt man aber von dem Ganzen so viel wie davon was sich unser Hund gerade denkt. Man braucht also auch Datenverbindungen zu den Peripheriegeräten. Die Idee die Ausgabe auf einen adaptierten Fernsehkasten zu bewerkstelligen anstatt auf Lochkarten war nicht das Entscheidende für den Computer an sich aber sicher für seinen Siegeszug in auch kleine Büros und Haushalte weltweit. Dazu die Tastatur und schließlich die Maus als Eingabegerät; zuvor brauchte man seltene und daher hoch bezahlte Spezialisten für die Lochkartenherstellung.
Zu den internen Teilen eines Computers zähle ich die Hauptplatine (Mainboard) auf der die CPU sitzt (meist verdeckt durch einen großen Kühlkörper) und die Stecker zum internen Speicher sich befinden. Dann gibt es noch Leitungen zu den externen Steckern (Ports).
Bei den Speichern gibt es verschiedene Instanzen und daher auch Typen. So muss es einen Speicher geben von dem der Computer beim Start bereits Daten auslesen kann, siehe oben. Und dieser Speicher darf nicht gelöscht werden! Man bezeichnet ihn als "Read Only Memory = ROM" da er einmal hergestellt werden muss und dann nicht mehr manipulierbar ist. Da sich aber im Verlauf der Arbeit des Computers auch Daten ändern - nicht nur die für deren Manipulation man das Gerät benützt sondern auch solche des Systems - muss es auch ein "Read And Access Memory = RAM" geben. Dieses hat den Vorteil dass ständig andere Daten gespeichert werden können. Aber den Nachteil dass diese bei Stromabschaltung gelöscht werden. Für systemnahe Daten wo ich hier nur Datum und Uhrzeit erwähnen möchte gibt es daher eine kleine Stützbatterie auf der Platine die während der Laufzeit geladen wird und einen kleinen Speicher mit so viel Strom versorgt dass dieser seinen Inhalt bei ausgeschaltetem Computer halten kann. Der Speichertyp wird als "EPROM" bezeichnet. Seit es diese Technologie gibt braucht man nicht mehr bei jedem Computerstart Datum und Uhrzeit eingeben. Neuerdings werden wohl auch modernere Speichertypen verwendet wie sie uns von den Digitalkameras bekannt sind. Die Daten und zwar sowohl die Programme wo die Maschinbefehle samt Parameter hintereinander gespeichert sind welche die CPU steuern als auch die Daten die man manipulieren möchte und schließlich die welche dabei entstanden sind werden im RAM gespeichert. Dieses verliert aber den gesamten Inhalt bei Ausschalten des Gerätes. Für kleine sogenannte Webbooks gibt es bereits die Lösung mit modernen Speicherkarten anstatt des RAM; aber der Vorteil hebt sich auf weil sie langsamer sind als die RAM-Stecker und bei erschwinglichen Preisen noch zu klein. Bei "richtigen" Arbeitsplatzcomputern kommt daher diese Technologie noch nicht zum Einsatz, für Kleingeräte von elektronischen Notizblöcken bis zu eben den Webbooks welche eigentlich nur im Internet surfen können müssen sowie für Tablet-Computer ist diese Ausstattung bereits eine Alternative. Das RAM ist ein Grenzfall zwischen internem Computerbestandteil und Peripherie.
Das Wort bedeutet erst mal sowas wie Kellerlager. Dort befinden sich Sachen die man später mal braucht. Beim Computerspeicher bezeichnet man damit einen Speicher wo man Daten einspeichert die dann sehr schnell abgearbeitet werden können.
Jede Intel-CPU hat einen Speicher eingebaut in den das Programm geladen wird so dass der Zugriff auf diesen Speicher dann sehr schnell erfolgen kann. Es wird einfach eine gewisse Anzahl von Bytes in diesen Cache transferiert. Das läuft zeitlgeich zur Abarbeitung. Die CPU verarbeitet dann Byte für Byte. Bis ein Sprung programmiert ist. Das heißt es kommt ein Maschinbefehl auf Grund dessen die CPU die nächsten Kommandos von einer anderen Stelle im Speicher beziehen soll als der physikalisch nächst folgenden. In diesem Fall wird der ganze Cache neu geladen. Was die Programmabarbeitung wesentlich einbremsen kann wenn zum Beispiel eine kleine und daher kurze Programmschleife sehr oft durchlaufen wird und dabei ein dort programmierter Sprung sehr oft und da in kurzen Abständen die Neubeladung des Cache erfordert. Daher ist der Cache der CPU selbst gar nicht zu groß, ein kleinerer Cache ist schneller zu regenerieren. Als ich mich mit Maschinprogrammieren beschäftigte kam ich auch auf diese Logik, auf die im Assembler-Buch extra hingewiesen wurde. Inzwischen gibt es auch den "Second Level Cache". Das ist ein weiterer Cache in den die Daten zuerst kommen und von dort erst in den Cache und von diesem dann in die CPU. Ob bei Diesem die Sprünge schon berücksichtigt sind oder auch eine Neuladung bei jedem Sprung durchgeführt wird ist mir nicht mehr bekannt. Zu dieser Zeit hat keiner mehr in Assembler programmiert. Der Second Level Cache ist heute eine Angabe für die CPU welche teurer aber auch besser ist wenn dieser groß ist. Beachte aber ob der Second Level Cache echt ist oder sich eigentlich im RAM-Bereich befindet (Shared Memorie) was bedeutet dass dann das RAM um diesen Wert verkleinert ist für seine übrigen Aufgaben. Im reinen Bürobereich kann dies tolerierbar sein bei niedrigeren Anschaffungskosten.
Auch bei Peripheriegeräten gibt es den Ausdruck Cache. Bei Harddisklaufwerken zum Beipsiel. Dieser Cache ist sehr schnell zu beschreiben und auch zu lesen. Erst bei dessen Lehrung werden die Daten tatsächlich auf das eigentliche Speichermedium übertragen. Auch Drucker brauchen einen Speicher für die Annahme ihrer Signale aufgrund deren sie funktionieren. Beim Laserdrucker ist dies besonders wichtig weil er nur ganze Seiten auf Ein mal druckt und daher diese erst mal ein speichern muss. Dazu mehr bei den Druckern.
Ursprünglich hat man die Grafikkarte als Videokarte bezeichnet weil sie die Ausgabe auf den Bildschirm bewerkstelligt. Durch die Einführung von Steckkarten welche einen Fernsehempfänger haben und daher das Fernsehen auf dem Computer ermöglichen hat man dann den Begriff Videokarte für diese reserviert und bezeichnet die eigentliche Monitorsteuerung als Grafikkarte. Egal wie man dazu sagt, die Elektronik muss Signale auf den Bildschirm schicken die der dann als Bild darstellt. Prinzipiell hat eine Grafikkarte dabei ein eigenes RAM. In dieses wird Byte für Byte der Inhalt der Bildschirmausgabe geschrieben. Die Speicherstellen sind dabei schon seit längerer Zeit "Dual Portet", das heißt sie können von einer Seite beschrieben werden und von der anderen Seite her gelesen. Es braucht daher nicht mehr das Auslesen für den Bildaufbau abgewartet werden wenn sich der Inhalt ändert. Die Elektronik der Grafikkarte schickt dann einige Male pro Sekunde das auf den Schirm was im Video-RAM steht. Wenn dabei ein Byte auf dem Video-RAM geändert wurde dann erscheint auch der zu geordnete Punkt auf dem Monitor in neuer Farbe. Jetzt verstehen wir auch warum - inzwischen auch bei den neueren Fernsehgeräten - bei Unterbrechung des Signaleinganges das letze Bild stehen bleibt. Es wird einfach das Video-RAM nicht mehr aktualisiert. Die Angabe des RAM einer Grafikkarte ist einer der Qualitätsfaktoren bei deren Auswahl und daher in den Prospekten üblich. Je höher auflösend ein Schirm ist, das heißt je mehr Punkte er hat, umso größer muss auch das Video-RAM sein. Das gibt es auch in mehrfacher Ausführung wo mehrere Bildschirmausgaben gleichzeitig gespeichert sein können und die Elektronik dann einfach um schaltet um schnell zu sein. Und die Bildschirmausgabe kann auch in kleinere Kasterl zerlegt sein wobei bei einer Änderung in einem davon die Aktualisierung der Ausgabe auch wesentlich schneller ist, das heißt "Style Sheet" Technik. Heute arbeiten fast alle Computer mit Style Sheet Ausgabe, gute Grafikkarten auch mit viel RAM und dieses oft auch mehrfach. Diese haben dann aber auch noch einen umfangreichen Chip-Satz auf der Karte damit der Computer selbst nicht zu sehr mit den dazu nötigen Berechnungen von seinem eigentlichen Programmablauf abgehalten wird. Aufpassen muss man wenn es heißt "bis zu" oder "shared" in Zusammenhang mit dem Video-RAM. Dazu gleich unter "Shared Memorie"!
Computer sind teuer und waren früher noch viel teurer. Auch auf Grund der Speicherbausteine. Und diese brauchte man im Video-RAM noch mals und so weiter.
Es wurden dann auch billigere Computer angeboten wo man das so genannte "Shared Memorie" ins Spiel brachte. Hier wurde einfach das zu einem Gerät gehörende RAM aus dem RAM des Computers rekrutiert und hatte dieser daher dann für seine eigentliche Aufgabe um so viel weniger RAM zur Verfügung. Besonders häufig war und ist dass die Grafikkarte nicht als Steckkarte vor liegt sondern auf der Hauptplatine integriert ist (On Board). Da greift die Eletkronik welche den Bildschirm steuert auf normales RAM zu und das RAM für den Computer ist dann um diesen Wert kleiner. Haben solche Standgeräte aber immerhin noch Erweiterungsstecker wo man eine Grafikkarte nachrüsten kann die dann für sich funktioniert und damit dieses Shared Memorie wieder frei wird solange man damit nicht einen weiteren Bildschirm am Originalstecker betreibt ist diese Technoligie vor allem bei Notebookcomputern besonders häufig verbaut. Und die kann man als Normalverbraucher nicht umrüsten. Oft wird hier auch auf den entsprechenden Hinweis in der Verkaufswerbung verzichtet. Der eingebaute Monitor ist aber bei den neueren Modellen durchaus hoch auflösend bei True-Color, und ein weiterer Schirm kann gleichzeitig betrieben werden der braucht auch sehr viele Daten. Einer der Gründe warum meiner Meinung nach beim Neukauf eines Notebook 4GB RAM als Minimum gelten sollten bei einer CPU die nicht viel schneller sein muss als die derzeit übliche 2,7 GigaHertz oder einer HD ab ca. 350 MB, wobei das RAM für ein Notebook vorrangig ist.
Es gibt heute auch die Möglichkeit dass eine Bildschirmausgabe in verschiedenen Qualitätsstufen geschieht. Die beste Qualität läuft logischerweise langsamer und sollte daher auch einen guten Computer bezüglich der anderen Komponenten als Grundlage haben. Und sie braucht mehr RAM. Ist das Video-RAM aufgrund von Shared Memorie zur Verfügung gestellt heißt das auch dass je nach Betrieb mehr oder weniger RAM hier abgezweigt wird. Bei aufwendigen Grafikprogrammen ist daher eine eigene Videokarte empfehlenswert die oft auch zwei Monitorstecker hat und selbts genug RAM, denn gerade hier sinkt die dabei unbedingt erforderliche Rechenleistung auch mit dem zur Verfügung stehenden RAM des eigentlichen Computers.
Erkennen ob ein Gerät mit Shared Memorie arbeitet (bevor man es kauft) kann man daran dass dies angegeben ist oder dass zum Beispiel das RAM der Grafikkarte als "bis zu" Wert ausgewiesen wird; dann muss man annehmen dass zumindest ab einer gewissen Kapazität diese auf das RAM zugreift um die eigenen Bedürfnisse ab zu decken.
Die wichtigsten Stecker auf der Hauptplatine sind: CPU-Sockel wo die CPU eingesteckt wird (Co-Prozessor-Sockel analog dazu), Stecker für das ROM-Modul sofern es nicht eingelötet ist, Stecker für das Eprom-Modul sofern es nicht eingelötet ist, RAM-Stecker und die Stecker für Erweiterungskarten (Extension Slots) welche aber schon zur Peripherie zählen. Sie stellen die Verbindung zu Peripheriegeräten wie Monitor, Tastatur, Drucker usw. bis zum Internt her. Wo eine Hauptplatine Schaltungen integriert hat damit man nicht noch eine Erweiterungskarte dazukaufen muss (z. B. Graphik-Controller "OnBoard") sind natürlich auch die zugehörigen Anschlussstecker an dieser montiert.
Es gab von der Konurrenzfirma MOTOROLA die Motorola 68000 Maschine, welche in professionalen Computersystemen wie z. B. Ultraschallscannern in Kliniken verbaut war und neben vielen anderen Geräten auch im sogenannten Amiga-Computer. Sie war einerseits in der Funktion den Intel-Maschinen ähnlich hatte aber auch einen Fießkomma-Akkumulator integriert. Sie konnte also sogenannte Fließkommaberechnungen problemlos und vor allem schnell durchführen. Dazu gab es noch einen Coprozessor der diese Rechenart noch besser beherrschte und gegebenenfalls ebenfalls eingebaut wurde. Diese Geräte waren vor allem im High-End Bereich von Grafik und Konstruieren im Einsatz. Der Hauptnachteil: diese Geräte waren für Kleinbüros und Heim (den Small Office - Home Office = SOHO-Markt) schlicht zu teuer. Die Intel 8088 mit 8-bit Datenleitung war im SOHO-Bereich schlicht der Standart; schon die eigentliche Maschine mit der 16-bit Datenleitung (8086) wurde viel seltener verkauft weil erstens etwas teurer und zweitens alle noch Drucker, Monitore etc. (die damals auch sehr teuer waren) mit 8-Bit-Anschluss hatten.Für die meisten Büroanwendungen reichte die Intel 8088. Sie wurde dann weiterentwickelt, vor allem die Adressierung größerer Speicherräume wurde dabei verbessert (80186 bis 80486). Dann stellte man den Pentium Prozessor vor (nach der bisherigen Benennung der 80586). Dieser hatte auch schon einen integrierten Fließkommaakkumulator. Die heutigen Intel-Prozessoren sind Weiterentwicklungen desselben. Es gibt sie dabei mit doppelter Ausführung des Prozessorkerns (doubleCore), sowie in mehrfacher Ausführung um sich die Arbeit zu teilen (Multiprozessing) usw. Und mit bis zu 64-bit breitem Datenanschluss. Das heißt es können Zahlen von 0 bis zu 18446744073709551615 in einem Schritt übertragen werden. Auch gibt es billigere Prozessoren wo der Teil der Fließkommaberechnung wieder reduziert wurde, diese nennt man Celeron. Ganz moderne haben auch gleich in der CPU eingebaut was sonst eine Grafik-Steuerkarte übernimmt, sind aber auch entsprechend teurer. All diese Techniken gab es schon vorher in der Motorolawelt (Apple McIntosh, IBM u.a.) aber in der Wintel (Windows mit Intel) Welt haben sie sich wegen des geringeren Preises durchgesetzt und endgültig weil viele Programmierer ihre Produkte auf das häufigste System abstimmen, um die Gewinne mehr über die Menge zu machen als über den Einzelpreis. Bessere Computersysteme sind aus meiner Sicht Denen vorbehalten welche sie brauchen und auch finanzieren können.
Jede CPU braucht einen Taktgeber damit sie bei der unglaublichen Geschwindigkeit nicht aus dem Takt kommt. Sie muss das nächste Byte im Programm als Befehl laden, das dauert so 3 bis 5 Takte. In Abhängigkeit davon auch eine Speicheradresse, das dauert vielleicht bis zu 10 Takte. Dann den Inhalt des RAM an besagter Speicheradresse. Der liegt dann in einem Register der CPU. Analog dazu einen anderen Speicherinhalt in ein anderes Register von einer anderen Speicheradresse. Dann ist der Ladeprozess vollendet. Beispiel eines häufigen Prgrammes: 1. Maschinbefehl: load A, adress 1. 2. Maschinbefehl: load B, adress 2. 3. Maschinbefehl: add. 4. Maschinbefehl: load adress xy, A. Bedeutet: das Register A der CPU wird mit dem Inhalt des Bytes geladen der an der Adresse 1 des RAM steht. Das Register B der CPU wird mit dem Inhalt des Bytes geladen der an der Adresse 2 im RAM steht. Es wird addiert. Das ist der kürzeste der angewendeten Befehle, mit 3 Maschintakten. Dann wird eine Adresse im RAM mit dem Inhalt des Register A (welcher das Ergebnis der Addition ist) geladen. Handelt es sich um Zahlen zwischen 0 und 255, die also je mit einem Byte auskommen, dann wird dieses Kurzprogramm um 100 Maschintakte brauchen. Ein relativ schneller Befehl wäre das Verschieben einer Reihe von Bytes im RAM, was zum Beispiel beim Löschen oder Einfügen in einer Textverarbeitung nötig ist. Der Befehl gehört nicht zu den kürzeren aber auch nicht zu den längeren bezüglich der Taktfrequenz. Dann kommen aber noch ca. 15 Maschintakte x Anzahl der zu verschiebenden Bytes hinzu. Es hat keinen Sinn in Zeiten wo diese Sachen von Betriebssystemen etc. übernommen werden diese genauer zu schildern. Aber jetzt versteht man den Sinn der Angabe der Taktfrequenz einer CPU in Verkaufsprospekten. Obiges Beispiel braucht bei 2Giga Taktfrequenz 1:2000000x100 = 50 Millionstel Sekunden. Sofern die anderen Teile des Computers dieses Tempo mit spielen. Auch die CPU selbst kann dabei sehr heiß werden was am plötzlichen Volllauf des Ventilators erkennbar ist. Beim Laden eines Bildes wird nicht sehr viel gerechnet, aber wenn man die Farbschattierung ändert das dauert auch mit neueren Geräten Etwas und mit alten Computern sehr lange mit der niedrigeren Taktfrequenz als einem der Gründe.
Natürlich müssen die Daten welche die CPU verarbeitet auch von irgend wo her kommen und irgend wo hin gehen. Die erste Instanz dazu ist das RAM. Prinzipiell werden Programme und auch Daten von peripheren Laufwerken erst einmal ins RAM kopiert, zumindest teilweise. Dann muss die CPU ständig auf das RAM zugreifen. Es gibt dazu Leiterverbindungen zum RAM. Diese sollen so gestaltet sein dass sie den Datendurchsatz, also die Menge der Daten die in möglichst kurzer Zeit zu verarbeiten sind, nicht hier einbremsen. Es ist also zu überlegen ob man eine alte Platine mit einer schnelleren CPU aufrüstet; da kann einerseits der erwartete Erfolg bei der Schnelligkeit des Computers aufgrund der langsameren Platine ausbleiben und andererseits diese heiß werden. Sie hat meist auch einen Taktgeber, wenn man diesen ausschaltet kann man sie "übertakten", allerdings auf Kosten der Lebensdauer. Auch die Peripheriegeräte müssen dazu passen, mit einer elendig langsamen HD hat die Aufrüstung des Computers im internen Bereich schlicht wenig Sinn. Fertig gekaufte Systeme sind meist dahin gehend abgestimmt, die teuren mitunter besser. Aber nicht alle teuren Computer müssen schnell sein, manche sind schlicht auf Robustheit bei Dauereinsatz ausgelegt. Und oft zahlt man einfach den Namen.
Man kann wie oben erwähnt bei Computern nur High-End-Komponenten verbauen oder die Ausschußrate wesentlich senken wenn man die Qualitätskriterien tiefer ansetzt. Das gilt einerseits jedenfalls bei den Transistoren und anderen elektronischen Bausteinen. Aber auch bei der Herstellung einer Platine. Industriell wird keine "Printplatte" mehr geätzt. Man lötet mittels Industrieautomaten die Metallspuren welche als leitende Verbindungen zwischen den Bausteinen fungieren auf. Und da kann man auch auf ganz sparsam einstellen, was sich bei der industiellen Stückzahl auf den Preis auswirkt. Dort wo ein Pin eines Bauteils mit so einer Leiterspur zu verbinden ist wird ebenfalls vollautomatisch gelötet, mit entsprechender Einstellung. Nachteil dieser Sparsamkeit ist dass diese Teile nicht so viel Wärme aushalten wie die Industriestandartgeräte. Wenn man also ein günstig erworbenes Heimgerät länger haben will so sollte man nicht die neuesten Spiele drauf spielen und auch nicht in die High-End-Grafik-Anwendung gehen. Für Büroarbeiten inklusive der dabei nötigen Grafikbearbeitung reichen die Geräte meist, zumal hier Keiner tagelang dran sitzt wie im professionalen Bereich wo sich die Operatoren oft abwechseln und das Gerät weiter läuft.
Will man also einen schnellen Computer haben dann müssen die Komponenten schnell sein und die Datenleitungen dazwischen auch. Ein wesentlicher Faktor ist dabei die Größe der Einzelkomponenten und auch des Ganzen. Je größer dabei etwas ist um so besser kann es die entstehende Wärme verkraften. Um so langsamer wird aber der Computer wegen der längeren Wege im Datendurchsatz. Kurze Wege bedingen aber auch schwächere Leitungen, da in diesem Bereich sich die Leiterspuren gegenseitig im Wege sind und daher umgangen werden müssen, womit wir wieder bei längeren Wegen sind. Über eine Autobahn gehe ich auch auf der Brücke länger als über einen Radweg. Und wenn mehrere Leitungen zu queren sind dann ist es für die Schnelligkeit der Querung gut wenn diese dünn sind. Und die punktförmigen Lötstellen sehr klein, da sie so sonst bis zur Nachbarspur reichen und so weiter. Man kriegt keinen schnellen Computer der besonders robust ist und keinen robusten der besonders schnell ist. Die im Handel erhältlichen Geräte sollten aber den Anforderungen bei SOHO in beiden Richtungen genügen.
Erst einmal hat die Arbeit eines Computers für mich so viel Wert wie die Gedanken eines Mitmenschen wenn er diese nicht äußert. Er muss also Bauteile haben welche die Verbindung nach außen herstellen. Und da diese zumindest ursprünglich nicht auf die Hauptplatine integriert waren und viele auch nicht sein können spricht man von der Peripherie und von Peripheriegeräten. Das RAM kann man als Grenzfall ansehen, streng genommen ist es Peripherie, aber ohne dieses funktioniert kein Computer. Heute sind oft die Schaltungen für Peripheriegeräte auf derselben Platine integriert wie der Computer selbst, dann spricht man von OnBoard-Komponenten. Das ursprünglich so bewundernswerte Bausteinkonzept einer EDV-Anlage wird dadurch wieder etwas eingeschränkt, andererseits hat man dabei aber auch gleich eine komplettere Ausrüstung im zentralen Kastl. Und eine Sorge weniger obs auch dazu passt.
Eine Datenverarbeitung kann nur funktionieren wenn man eine Quelle für Daten hat, irgendwas womit man sie verarbeitet und das Ergebnis dann zur Verfügung stellen kann. Beim Mailänder Dom hat man die Statik aufgrund ermittelter Werte und unter zu Hilfe Nahme von Erfahrungswerten berechnet. In einer Dokumentationssendung war von was weiß ich wie vielen Personen die Rede welche da gleichzeitig gerechnet haben und von 120 Jahren bei einer durchschnittlichen Lebenserwartung von 35 Jahren. Heute ist so was undenkbar. Unsere statischen Berechnungen sind aber genau so präzise, allerdings ist heute jedes Statikerbüro auch wenn es klein ist ein EDV-Zentrum von der anderen Seite betrachtet.
Es war eines der wichtigen wenn auch nicht das einzige Kriterium für die fast komplette Verbreitung der SOHO-Computer über die ganze Erdkugel in vergleichbar kurzer Zeit dass man alsbald die Vorzüge eines Baukastensystems erkannte. Dieses hat man verwirklicht indem man auf der Hauptplatine Steckersockel bereitstellte wo man verschiedene Komponenten einstecken kann oder auch nicht. Die Zentraleinheit braucht man also jedenfalls und die weiteren Steckkarten je nach Bedarf. Es gibt zwei Typen solcher Erweiterungsstecker: einmal um das RAM zu erweitern und einmal um Steuergeräte für Peripheriegeräte ein zu stecken. Erstere sind für die Speicherbausteine des RAM. Hier gab und gibt es verschiedene Untertypen welche dann jeweils mit einem Steckertyp zusammen passen. Man soll also vor dem Aufrüsten des RAM darauf achten welche Karte auch in den Stecker passt. Die andere Sache ist die mit der Verbindung zur Peripherie. Sind Tastaturanschlüsse bisher praktisch immer gleich auf dem Mainboard zu finden gewesen und war hier eine Aufrüstung nie sinnvoll - Keiner schreibt so schnell dass dies der Computer nicht bewältigen könnte - und detto auch der parallele Druckeranschluß - der braucht nicht schneller sein als der Drucker - so gibt es Perpheriegeräte welche sehr wohl von höherem Datendurchsatz profitieren wie die immer größeren und feiner auflösenden Monitore bei immer mehr Farbnuancen in der Darstellung. Es gibt daher inzwischen schon CPUs welche die Bildschirmausgabe in einem Teil ihres Layouts vorbereiten, daneben Grafik Onboard was heißt dass das Steuergerät für die Bildschirmausgabe neben dem eigentlichen Computer auf der Hauptplatine sitzt. Und Grafikkarten die in einen Erweiterungsslot einzustecken sind. Die besseren sind Computer für sich welche mittels eines Grafik-Chip-Satzes die übermittelten Daten selbst nachbearbeiten können bevor diese auf die Leitung zum Schirm gehen. Dazu ist noch zu sagen dass die zugehörigen Stecker vom Grundkonzept so sind wie die für das RAM. Sie wurden auch immer kleiner und dabei schneller im Datendurchsatz. Die verwendete Steckkarte muss aber auch einen Stecker haben an dem man dann das Peripheriegerät anstecken kann.
Erfinden kann man Daten nur wenn man Märchen erzählt. Es muss also einen Input geben, also müssen Daten in einen Computer hinein kommen. Früher hat man dazu Lochkarten benutzt. Ich habe Mitte der Siebziger Jahre den Zahlschein für die Autoversicherung als Lochkarte bekommen. Mein Abschnitt galt dann von der Bank abgestempelt als Zahlungsnachweis, ein anderer Abschnitt ging für die Weiterverarbeitung an die Versicherung. Heute ist so ein Datentransfer undenkbar.
Für den Siegeszug des PC-Konzeptes war neben Anderem auch der Umstand maßgeblich dass es gelang für die Eingabe eine Schreibmaschinen-ähnliche Tastatur zu entwerfen. Zumal zumindest bis dahin jede Bürokraft gut Maschinschreiben konnte weil musste. Es gelang auch bald die Belegung der Tasten an die der Schreibmaschinen verschiedener Länder an zu passen.
Erst einmal erzeugt ein Tastenschlag auf der Tastatur einen Scanner-Code. Diese Zahl wird auf den Computer geschickt und dort in einem Zwischenspeicher abgelegt. Bei der Abarbeitung wandelt das Betriebssystem diesen in den eigenen Code. Der wird auch in einem Zwichenspeicher abgelegt. Und schließlich vom Anwenderprogramm abgearbeitet. So dass zum Beispiel diese Buchstaben im Datenbereich des Textprogrammes abgelegt werden. Der ist dann von Zeit zu Zeit vom RAM auf einen Datenträger zu übertragen als Textdatei. Andere Anwendungen funktionieren ähnlich. Zwei Tatsachen sind dabei auch heute spürbar: der Ursprung der Textverarbeitung auf einem Computer liegt in der Textübermittlung mittels Fernschreiber und das häufigste Ziel war zumindest bis jetzt ein Ausdruck auf Papier. Daher ist verständlich dass die Einführung der Tastatur für das Konzept des persönlichen Computer (personal computer = PC) von Firmenmitarbeitern und da bisher vorwiegend in den Verwaltungsbüros ein wichtiger Schritt war.
Handhabung und Ergonomie einer Tastatur
Da man zumindest bei der Texterstellung viel Zeit an der Tastatur verbringt folgen hier einige Hinweise wie es leichter gehen könnte und negative Erscheinungen welche auch in Berufskrankheiten enden könnten zu vermeiden sind. Ohne Anspruch auf Vollständigkeit, aber immerhin. Sie befindet sich ja auch direkt vor dem schwächsten Teil einer EDV-Anlage, welcher zwischen ihr und dem Sessel platziert ist.
Erst mal ist zu sagen dass es Jedermanns eigene Sache ist wie er eine Tastatur bedient. Ob man eine angesteckte Tastatur benützt oder eine Funktastatur mittels USB-Empfänger oder mittels bluetooth, es ist immer wichtig dass man sich beim Schreiben wohl fühlt. Dazu gehört ob die Tasten in Abstand und Anordnung passen und auch ob sie die kleinen Fingerschläge einerseits gut abfedern um Sehnenscheidenentzündungen zu vermeiden die gerade im Bereich der Finger sehr unangenehm sein können und dabei trotzdem noch den Tastenschlag gut durchbringen. Im Prinzip muss man das selbst pobieren. Ich verwende am Notebook eine Funktastatur weil ich mit der angebauten nicht wirklich zurecht komme und mit ihr daher wesentlich mehr Tippfehler mache. Objektiv kann ich aber keinen Mangel an der Notebook-Tastatur feststellen.
Nicht vernachlässigen darf man aber auch die Gefahr für das Rückgrat nicht wegen der Tastatur selbst aber weil man entsprechend lang an dieser sitzt. Prinzipiell sollte man aufrecht und frei sitzen, also schön und ohne sich ab zu stützen. Letzteres ist bei der Bedienung einer Tastatur sowieso kaum möglich. Hier sieht man landauf und landab den Fehler dass die Tastatur irgendwo steht, man zu ihr hinlangen muss, sie auf irgendeiner Verkaufstheke oder einem normalen Schreibtisch zu hoch platziert ist und so weiter. Bei gelegentlichen Eingaben zwischendurch ist das alles egal. Aber wenn man stundenlang daran arbeitet sollte man die Regeln beachten welche ich schon in den frühen 70erjahren beim Schreibmaschinlernen erfahren habe.
Die Tatatur ist so zu platzieren dass sie gerade vor Einem steht. Der Sessel soll so gestaltet sein dass man bei Aufstellen der Schuhsohlen am Boden die Oberschenkel in etwa waagrecht hält. Darum sind Bürosessel ja prinzipiell verstellbar. Bei ziemlich aufrechtem Oberkörper sollen die Oberarme neben dem Körper nach unten hängen und die Ellbogen so abgewinkelt werden dass die Unterarme in etwa waagrecht nach vorne stehen. Der Handrücken sollte dabei die Oberkante des Unterarmes verlängern und die Fingner locker nach unten hängen. Und dabei die Tasten in der Grundstellung auf der Tastatur (ASDF JKLÖ) so berühren dass sie die Tasten noch nicht niederdrücken. Sogenannte Handballenauflagen sind bei richtiger Position absolut unnötig, können aber bei zu hoch platzierter Tastatur eine wesentliche Erleichterung (des Leidens) bedeuten. Ob man nicht den Arbeitsplatz anpassen sollte ist dann aber die nächste Frage. Daraus ergibt sich auch die waagrechte Entfernung der Tastatur vor dem Körper. (Geht sich auch mit Wampe aus, ich weiß das). Ein Notebook an dem man direkt schreibt sollte man bezüglich der Tastatur richtig aufstellen, der Bildschirm kann soweit gekippt werden dass er dann dazupasst. Und läßt sich softwaremäßig oder auch durch Tastenkombinationen abdunkeln falls er dann zu hell ist.
Eigene Computertischchen haben daher ein Ausziehbrett unter der Schreibtischplatte, dort gehört die Tastatur hin. Man kriegt aber auch Untertischläden mittels derer man sowas auf einen alten Schreibtisch montieren kann. Bevor man sich die Orthopädie ruiniert sollte man vielleicht die Mittellade des alten Schreibtisches opfern. Oder auch an modernen Arbeitsplätzen die oft nur aus einem kunstvoll geschwungenen Brett mit Beinen bestehen eine Untertischlade montieren. Der Rollkontainer darunter könnte von der Höhe her passen wenn man die Knie darunter bringt oder er ein ausziehbares Brett in richtiger Höhe hat. Sonst stört er bei der beschriebenen Sitzhaltung bei den Knien; sich über Etwas beugen um die Tastatur zu erreichen sollte bei längerer Arbeit vermieden werden. Bei Schwerarbeit und im Büro ruiniert man sich das Rückgrat. Bei ersterer durch die einwirkenden Kräfte, im Büro durch das Fehlen derselben wodurch die Muskulatur verkümmert. Und dann sitzt man noch unschön bei längerer Arbeit (kurzfristig ist das nie ein Problem oder schafft sogar den nötigen Ausgleich). Während aber für einen Schwerarbeiter die Sachen nicht leichter sind welche er bewegen muss kann jede Bürokraft in der Freizeit für genügend Bewegung sorgen. Sonst sehe ich bei beiden schwarz für das durchschnittliche Pensionsantrittsalter (aufgrund der fehlenden Versicherungsjahre wenn es zu früh nicht mehr geht)!
Die PC-Maus ist für viele PC-Nutzer das weitaus am häufigsten verwendete Eingabegerät. Ursprünglich war sie das nicht und einen Text schreibt man immer besser mit der Tastatur. Aber für alle anderen Steuerungen eines PC hat sie sich doch durchgesetzt. Und daher gibt es bei den jüngeren Programmen gewisse Tastenkombinationen schlicht nicht mehr.
Im Prinzip sendet jede Maus wie die Tastatur einen Scannercode an den PC. Dieser wird einerseits bei Bewegen des Gerätes ausgelöst und in denkbar kleinen Abständen eingelesen, andererseits natürlich auch beim Betätigen einer Maustaste. Windows selbst und die meisten Anwendungsprogramme sind heute Mausorientiert.
Nach meiner Erfahrung bewegt man die Maus am Besten rechts neben der Tastatur (Rechtshänder). Wenn man siehe oben richtig vor der Tastatur sitzt passt das dann auch. Deshalb liebe ich alle Notebooks welche die Anschlüsse rechts haben. Da stört dann nämlich jeder USB-Stecker die Mausbewegung. Der Hauptvorteil der Maus liegt ja darin dass sie eine sehr kleine Fläche braucht um bedienbar zu sein und der des Notebooks dass es dort einsetzbar ist wo man sonst sehr wenig Platz hat. Bei normaler Anwendung ist es so dass bei schnellerer Bewegung der Mauspfeil im Verhältnis eine große Bewegung am Bildschirm macht. Und bei langsamer Bewegung eine kleine. Automatisch gewöhnt man sich schnell daran dass man um größere Strecken zu überwinden die Maus ruckt und dann in der Nähe des Zieles sehr fein bewegt. Bei Grafikprogrammen wo man mit der Maus zeichnet bleibt allerdings die Bildschirmbewegung zu der tatsächlichen Mausbewegung proportional. Auch ist normalerweise die Mauspositionierung relativ. Kommt man mit dem Maus an den Rand der Fläche so setzt man sie auf der Unterlage nach und weiter gehts. In Grafikprogrammen ist die Mauspositionierung absolut. Das heißt ich kann die Auflagefläche der Maus als Abbild des Bildschirmbildes betrachten. Und da auch die Bewegung von Maus und Bildschirmpfeil dann koordiniert sind kann ich mit etwas Geschick eine Papiervorlage mit der Maus nachzeichnen und erhalte im Grafikprogramm so ein Abbild. Es gibt daher auch Mäuse an die eine kleine Fadenkreuzlupe angemacht ist. Meist haben die dann auch das Kabel an der anderen Seite angemacht als die normale Maus.
Neben der möglichst moderaten Bedienbarkeit der Maus - wobei unsere Hand da viel flexibler ist als man nach Lesen eines Verkaufsprospektes glauben sollte aber wenn man doch ein ungutes Gefühl hat sollte man bei den heutigen Preisen gleich mal eine andere probieren - ist die Bau- und Arbeitsweise einer Maus ausschlaggebend. Funkmaus ja oder nein? Sie ist besser, die Einsatzentfernung ist allerdings mitunter nicht größer als bei einer durchschnittlichen Kabelmaus. Ich verwende zu Hause die Funkmaus welche in das Set mit der Funktastatur gehört, am USB-Stecker befindet sich der Funkempfänger und der funktioniert ca. 2 m weit. Dabei sitzt er auf der anderen Seite des Notebooks. Und gleich daneben sind Bildschrimkabel und Netzwerkkabel angesteckt sowie die externe Stromversorgung. Unterwegs arbeite ich grundsätzlich mit der Kabelmaus. Die steckt dann dort wo jetzt der Funkempfänger ist im USB-Stecker. Allerdings dann unmittelbar neben dem ebenfalls dort platzierten Funkmodem für die Internetverbindung, und dieses stört so dass eben die Kabelmaus nötig wird. Wenn man vermeidet dass sich das Kabel bei der Bewegung irgendwo fängt (zum Beispiel an der Ecke des Notebooks um das man es herum führt wenn der USB-Stecker auf der anderen Seite ist) erkennt man kaum einen Unterschied in der Bedienbarkeit.
Viel wichtiger als dass es sich um eine Funkmaus handelt ist nach meiner praktischen Erfahrung dass man eine optische Maus verwendet und keine mechanische. Bei der Mausbewegung werden die Impulse erzeugt indem die Unterlage beleuchtet wird und optisch die Bewegung auf dieser registriert. Ich will nicht mehr daran denken wie oft ich bei vergleichbarer Tätigkeit wie eben beim Schreiben dieser Zeilen schön in Schwung war und dann eine Stunde lang die Maus von feinen Flusen befreit habe die sich in der Mechanik gefangen hatten weil nun gar nichts mehr ging. Das ist bei der optischen Maus gar nicht möglich. Beim Kauf also: optische Maus jedenfalls, Funkmaus wenn möglich aber nicht ungedingt. Auf Reisen nehme ich eine Batterie aus der Funkmaus weil diese sonst bei jeder kleinen Erschütterung leuchtet was die Einsatzdauer der Batterien verkürzt. Ich verwende sogenannte permanete Batterien da sie ja doch einige Zeit halten. Aufladbare Batterien sind bei diesem Einsatz etwas zu unsicher. Es gibt auch Funkmäuse welche man in einen Ständer steckt wenn man sie nicht braucht wo sie dann auch aufgeladen werden. Für professionale Anwendung mit Dauerbetrieb sicher eine umweltfreundliche Alternative. Auf diese Arbeitsfrequenz komme ich dann doch nicht.
Ein gewisses Interesse weckte in mir eine "Maus" die wie ein Schreibstift gehalten und geführt wird und für das Kopieren von Zeichnungen in ein Grafikprogramm sicher gut ist. Es gibt auch Mäuse die sehr klein sind und daher leicht eingesteckt werden können was für Vortragsreisende interessant sein mag, oft haben sie auch einen Laserpointer für die Präsentation integriert und die Tasten funktionieren zum Beispiel bei Powerpoint-Präsentationen auch dann wenn man die Maus frei in der Hand hält.
Geräte die man fix irgendwo platziert und die daher platzsparend sind und an denen man irgendwo einen Hebel oder eine Kugel bewegt und die sonst wie die Maus funktionieren haben sich nie wirklich durchgesetzt. Auch nicht in der Version eines roten Stiftes inmitten der Notebooktastatur. Obwohl ich damit auch schon jemand arbeiten sah das macht keinen schlechten Eindruck. Eher hat sich das Touchpad am Notebook unter der Tastatur duruchgesetzt. Gelegentlich arbeite auch ich damit. Die größte Freude macht mir mein neues Notebook allerdings weil mans wenn mans nicht braucht (weil man mit der Maus arbeitet) ausschalten kann. Anstatt der Mausbewegung fährt man darauf mit dem Finger. Drückt man dabei nieder dann entspricht das der Maustaste, aber nur wenn man es nicht will. Sonst sind darunter zwei Tasten die den Maustasten entsprechen. Der hauptsächliche Ärger entsteht allerdings wenn ich auf der Notebooktastatur schreibe. Auf der alten Schreibmaschine hat man die Daumen auf die lange Leertaste unten gelegt. Da aber am Computer der Anschlag so leicht ist habe ich mir bald angewöhnt die Daumen darunter zu legen. Und sie zwischendurch zu bewegen um die Hand zu entspannen ohne das Schreiben zu unterbrechen. Damit verschiebe ich aber den Mauscursor. Und wenn (komischerweise funktioniert es da gut und bei Absicht nie) der Druck auf diese Fläche erhöht wird dann schreib ich dort weiter wo ich absolut nicht will. Leute die früher als ich mit Notebooks zu tun hatten, sie waren ja bis vor Kurzem sehr teuer, sehen aber bei der Bedienung dieses Touchpads gut aus.
Das Touchpad ist wohl aus dem schon länger existierenden Grafiktablett entwickelt worden. Das Grafiktablett ist ein flaches Gerät mit einer drucksensitiven Oberfläche. Mit irgendeinem möglichst nicht kratzenden Gegenstand kann man darauf zeichnen und damit Zeichnungen in einem Grafikprogramm auf diese Weise erstellen. Ich erwarte solche Zeichentabletts in nächster Zeit die dabei gleichzeitig den Bildschirminhalt anzeigen so dass man dann direkt Zeichnung und Bilder ergänzen kann. Und notfalls auch gleich einen Monitor hat. Drucksensitive Monitore gibt es ja bereits, die müssten gar nicht viel flacher werden nur ein stabileres Gehäuse bekommen damit man sie her nehmen kann. Dann wären das Grafiktablett, der Monitor und das Touchpad in einem Gerät vereint; mit einer seitlich einrastbaren Zeichenschiene hat man dann sowieso den Vogel abgeschlossen. Wahrscheinlich gibt es das schon, vielleicht wird es bald auch für den Heimgebrauch erschwinglich.
Nachträglicher Eintrag Anfang 2022: ja gibt es inzwischen, kostet ca. 400 Euros inklusive Bildersoftware. Und kann auch als Monitor verwendet werden. Ein Tablet das sonst gleich ist aber selbst das Bild nicht anzeigen kann habe ich aber bei meiner Tätigkeit irgendwo in einer Schublade. Neueste sogenannte All-in-one-Computer haben den Computer und den Touchscreen-Bildschirm bereits in ein flaches Gerät zusammengebaut so dass man hier auch direkt darauf zeichnen kann sowie eine Touchpad-ähnliche Steuerung hat.
Zurück zum Text von damals, inzwischen wohl schon veraltet: Ich habe inwzischen ein Video gefunden wo ein großes Grafiktablett präsentiert wird in welches das Bild eingespielt wird. Der Operator hat dabei das Bild beliebig vergrößert, hin und her verschoben und mit einem entsprechenden Stift darauf gearbeitet. Allerdings war es so groß wie eine Schreibtischplatte und wohl entsprechen teuer, auch ist die Frage ob Heimgeräte die Performance haben dass man damit vernüfntig arbeiten kann. Als Alternative sah ich ein Video wo jemand ein erschwingliches Grafiktablett bedient hat. Wenn man bedenkt dass er dabei ja alles gleich am Monitor kontrollieren kann ist dieses wohl die Alternative für Normalverdiener. Was nicht ganz uninteressant ist war ein Stift mit einem Empfänger der seine Postition ständig erkennt. Damit kann man direkt auf dem Notebookschirm arbeiten, also ein Mittelding zwischen meiner Wunschvorstellung und einem High End Grafiktablett.
als heute sehr wichtige Eingabegeräte von wo ein Computer seine Daten immer häufiger bezieht möchte ich eigens behandeln.
Ein Computer ist erst perfekt wenn er das Ergebnis seiner Arbeit auch zur Verfügung stellen kann. Früher hat er dabei Lochkarten gestanzt, später konnte er wenigstens drucken, aber der Siegeszug des PC in den SOHO-Markt war haupsächlich durch die Idee ermöglicht Fernsehkastln für die Ausgabe zu verwenden. Die Bildqualität war aber so schlecht dass man bald auch eigene Computermonitore erzeugte. Die heutigen Flachbildschirme sind so gut dass Viele gar nichts mehr ausdrucken sondern nur mehr an diesen betrachten. Der eigentliche Schnitt kam dann mit den VGA-Monitoren (Video Grafics Area). Ihre hauptsächliche Errungenschaft war dass ein Bildpunkt gleich breit war als hoch, was das Programmieren und Darstellen von Grafiken wesentlich erleichterte. Da die Fernseher damals noch das Seitienverhältnis 4:3 hatten waren die Bilder der ersten VGA-Monitore durch 640x480 Punkte dargestellt. (Um einen Buchstaben in einer Punktmatrix zu zeichnen, also als würde man auf Millimeterpapier Kasterl einfärben oder nicht, brauchte man 6 Punkte waagrecht und senkrecht. Für einen fixen Abstand zum nächsten Buchstaben also 8 x 8 Punkte insgesamt. Um nun im reinen Textmodus 80 Buchstaben in eine Zeile zu kriegen, was im Vergleich zu den damals üblichen Schreibmaschinen gerade der Breite einer DIN A4 Seite entsprach, ergeben sich daraus 640 Punkte. Die Fernseher hatten waagrecht etwa die Hälfte davon. Senkrecht brauchte man 320 Punkte für 40 Zeilen. Die Fernseher hatten ca. 300 Zeilen. Mit einer damals noch preislich erschwinglichen Erweiterung kam man daher schließlich bei den Computermonitoren auf 640x320. Wobei der Punkt nur etwa 3/4 so breit war als hoch: CGA. Damit konnte man in Geschäften schon gut arbeiten. Die Darstellung wurde in Form von Masken angeboten wo man im Zeichesatz die Striche für das Einkasteln von Teilbereichen zur Verfügung hatte. Die Darstellung war also einfach, aber klar und vor allem schnell. Im Grafikmodus hatte man diese Punkte zur Verfügung. Bei der Entwicklung von VGA kam man dann in etwa auf quadratische Einzelpunkte und auf 640 - wegen der 80 Zeichen pro Zeile - x 480 als logisches Seitenverhältnis: 4:3 bei den alten Fenrsehschirmen und auch Monitoren.) Verglichen mit heutigen Geräten haben sie noch sehr geflimmert. Aber ich konnte mit meinen von Geburt an beeinträchtigten Augen vor so einem Schirm (selbstverständlich ein Röhrengerät) viel länger sitzen als vor einem Buch. So gut waren sie immerhin schon. Heute kauft man einen Flachbildschirm der flimmert gar nicht und hat eine wesentlich größere Bildfläche, ist im Breitformat, hat eine wesentlich höhere Punktauflösung und so weiter. Und für den Heimgebrauch sind eigentlich alle genügend sicher bezüglich Ergonomie. Für professionelle Anwendung kauft man eh nicht bei den Discountern.
Wir befinden uns gerade in der Umbruchphase wo der Ausdruck von Daten nicht mehr wichtig sein wird aber bisher war. Daher ist der Drucker als Ausgabegerät zu erwähnen. Allerdings immer seltener. Weil man alles sehr schnell und sicher am Bildschirm erreichen kann. Und bei den heutigen Schirmen auch verschiedene Programmfenster nebeneinander öffnet so dass man in einem lesen und im anderen schreiben kann etc.
Immer häufiger werden die sogenannten Beamer. Eigentlich sind sie die Verbindung eines heutigen Monitors mit dem alten Diaprojektor. Und meist so lichtstark dass man sie auch bei Tageslicht einsetzen kann also einen Vortragssaal nicht mehr verdunkeln muss. Zumindest kann man ohne zusätzliches Licht Notizen machen während so einer Präsentation. Und preislich liegen sie bei genügender Auflösung um 1000 Euro, bei 640x480 auch schon unter 150 Euro. Letzteres funktioniert dabei auch mit nur einer Speicherkarte ohne PC, ist etwa Zigarettenschachtelgroß und macht eine Projektion in der Größe eines großen Bildschirmes. Bei Energieversorgung aus eigenen Batterien. Wer häufig mit Präsentationen arbeitet und diese jederzeit bringen muss für den ist dieses Gerät eine Alternative. Mein derzeitiger 61cm-Monitor hat allerdings auch nur 170 Euro gekostet und ich brauche keine Projektionsfläche und habe eine wesentlich bessere Punktauflösung. Wie auch immer die Beamer haben ihr Einsatzfeld.
Der Monitor = Bildschirm ist das Ausgabegerät schlechthin. Es ist nicht möglich wo anders so schnell das Ergebnis der Computerarbeit bereit zu stellen. Natürlich unterlag auch dieser einer rasanten Wandlung seit dem ersten PC. Von Monochromen Geräten über reine Textdarstellung bis hin zur hochauflösenden Grafik.
Gesteuert wird das Ganze von der Grafikkarte. Die ist entweder gleich auf der Hauptplatine integriert (OnBoard) welche dann auch durch den ganzen Computer bis zum Anschlussstecker hinten reichen muss oder sie kann auch nachgerüstet werden. Beachte die Typen deiner Erweiterungsstecker. Die Grafikkarte muss dazupassen und gehört auf den schnelleren.
Ein Monitor funktioniert in dem drei Punkte in den Regenbogenfarben Rot Gelb und Blau (RGB bzw. englisch RYB) knapp nebeneinander leuchten. Leuchten alle drei hell dann ergibt das für unser Auge die Farbe weiß. Dunkeln sie gleichmäßig ab so ergibt das alle Grauschattierung bis schwarz. Schwarz ist also die Gundfarbe des nicht leuchtenden Bildschirms. Sind sie nicht gleichmäßig hell (oder dunkel) dann ergibt das die Mischfarben. Diese sind nummeriert in der Art, dass jeder Punkt eine Helligkeitsangabe von 0 bis 255 hat. Das braucht ein Byte Speicherraum. Also 3 Bytes. Da ein Byte 8 bits hat spricht man dann von einer Farbtiefe von 24bits. Da unser Auge die Abstufungen eigentlich nicht mehr erkennt sagt man auch True Color (wahre Farbe) dazu. Inzwischen gibt es aber auch schon noch feinere Farbabstufungen. Bei den Röhrengeräten werden dabei Punkte welche sich auf der Hinterseite der Frontscheibe befinden durch einen Elektronenstrahl angeschossen und leuchten dann je nachdem intensiver wenn der Strahl stärker ist. Bei den Flachbildschirmen muss ein Punkt im Hintergrund unter Strom gesetzt werden, dann verfärbt er sich. Die Beleuchtung kommt allerdings indirekt aus einer anderen Quelle. Es wird also das Bild von einer anderen Quelle beleuchtet so ähnlich wie wenn man im Zimmer das Licht aufdreht und dann zum Beispiel ein Bild an der Wand sieht. Schaltet man den Bildlschirm auf weiß (indem man zum Beispiel im Grafikprogramm ein Bild ganz weiß einfärbt und sonst nichts mehr dazumalt) dann kann man ein Röntgenbild betrachten wie der Arzt vor seiner von hinten beleuchteten Milchglasscheibe (ahwenn man sich darauf auskennen würde...).
Ein Notebook kann logischerweise in seinem Deckel nur einen Flachmonitor haben. Daher waren die auch lange schlicht zu teuer. Heute gibt es welche zu moderaten Preisen wo aber der Monitor noch stark spiegelt, bei den teureren nicht mehr. Das wirkt sich aber im Freien stärker aus als in einem Zimmer. Die Größe eines Monitors ist natürlich auch ein Kriterium. Größere haben oft auch eine größere Punktezahl. Daher kann man Programmfenster gleich groß darstellen wie bei den Kleineren sie nehmen aber dabei nicht gleich den ganzen Bildschirm ein. Ob ein Notebook eher einen großen oder kleinen Schirm haben muss ist so eine Frage. Der Große ist natürlich schöner zum Arbeiten. Für Unterwegs tuts aber der Kleine auch, und das Gerät ist wesentlich billiger. Und leichter einzupacken. Und falls es runterfällt immer noch zu teuer. Ich habe ein billigeres Gerät gekauft mit einer durchschnittlich schnellen CPU und 4 GB RAM, dafür ein keineres Display in Verbindung mit dem oben erwähnten 61cm-Schirm. 420 Euro Notebook, 110 Euro Windows, 170 Euro der Standschirm, das sind 700 Euro, da kosten viele Notebooks allein schon mehr. Sind sie wohl auch wert, aber ich muss da sparen und wie gesagt es besteht unterwegs immer die Gefahr eines Schadens; das billigere Gerät ersetzt man leichter.
Wenn man viel in der Vorbereitung von Textausdrucken arbeitet so ist die Vorschau am Monitor heute durchaus auch bei billigen Programmen ausreichend. Wysiwyg = What You See Is What You Get ist heute praktisch verwirklicht. (Die begrenzte Breite dieser Zeilen ist dabei so zu verstehen: es hat sich als ungut gezeigt wenn man am breiten Bildschirm zu sehr von links nach rechts und wieder links schauen muss. Daher kam bald die Idee dies zu begrenzen was durch Anweisungen in HTML auch möglich ist. Bei kleinerem Browserfenster bricht sich der Text allerdings wieder dynamisch um. Auf die tatsächliche Breite kam ich dann im Vergleich zum Papierausdruck dieser Seite; ich spielte mich mit der Angabe der Breite bis diese in etwa der auf der ausgedruckten Seite glich.) Dazu gibt es auch Breitschirmmonitore die man am Ständer auch hochkant drehen kann. Und meist schaltet dann die Bildschirmdarstellung auch entsprechend um. Das heißt man kann einen Hochformat-Ausdruck besser darstellen ohne seitlich den meisten Platz zu verschenken und senkrecht kriegt man dann mehr drauf. Allerdings ist andererseits der Vorteil eines Breitschirmes wenn er genügend groß ist und auch eine entsprechende Auflösung hat dass man auch zwei Seiten nebeneinander darstellen kann. Wie auch im Moment. Rechts der Editor in den ich diesen Text eintippe, links Firefox wo das Ergebnis dargestellt werden kann und am originalen Notebook-Monitor das FTP Programm um diese Datei immer wieder hoch zu laden. Die drehbaren Monitore sind etwas teuerer, aber nicht mehr so viel. Man muss also eine Vorstellung haben was man will und dann suchen. Aber dafür ist ja diese Publikation unter Anderem gedacht, dass man eine Vorstellung kriegt was zur Zeit so zu kriegen ist und wie mans eventuell anwenden könnte.
Aufpassen muss man wenn man ein Gerät mit einer Grafikkarte aufrüstet. Nämlich ob die Stecker auch zum Kabel des Monitors passt welches dort oft fix montiert ist. Oder es einen Adapterstecker gibt. Der "kleine" VGA-Stecker ist heute der Standart. Daneben muss die Karte auch in den Stecker am Mainboard passen und technisch zum Gerät. Module welche mittels USB-Stecker an den Computer verbunden werden sind immer eine vorübergehende Alternative. Für die Dauer möchte ich sie nicht empfehlen, denn sie brauchen wiederum Platz, sind auf diesem seriellen Stecker langsamer als Einsteckkarten welche ja mit vielen Leiterbahnen gleichzeitig mit dem Computer verbunden sind und brauchen mitunter einen Treiber den es oft in der nächsten Betriebssystem-Version nicht mehr gibt. Und was soll der USB-Port noch alles bewältigen, irgendwann wird es zu viel.
Aufstellung und Ergonomie des Bildschirmes
Die Aufstellung eines Bildschirmes richtet sich nach der Position des Benutzers. Die horizontale Entfernung richtet sich nach dem was man problemlos überblicken will. Das kann ein Programmfenster sein, dann schaut man aufs andere und wieder zurück. Dann muss man näher am Schirm sitzen als wenn man ihn auf einmal ganz überblicken will. Die senkrechte Position soll so gewählt werden dass man leicht nach unten schaut. Sonst liegt der Kopf zu lange im Nacken was nicht gut tut. Und der auf dem man am Meisten arbeitet sollte möglichst gerade vor Einem stehen. Außer man braucht diesen Platz für die Vorlage (Lehrbuch etc.) und schaut erst in zweiter Linie auf den Schirm. Für die Neigung eines Bildschirmes gilt folgendes: denk dir eine Linie von der Nasenwurzel zwischen den Augen auf den Mittelpunkt der Bildschirmfläche. Diese sollte in allen Richtungen etwa einen rechten Winkel mit der Bildschirmfläche bilden. Das musst du nicht nachmessen, aber in etwa sollte es stimmen. Nebenbildschirme zu denen man den Kopf drehen muss stellt man so dass dieses Prinzip wieder weitgehend erfüllt ist. Da man diese nicht ständig anschaut ist die Toleranz natürlich etwas größer.
Röhrengeräte haben eine gekrümmte Mattscheibe. Das hat den Grund dass man von verschiedenen Blickwinkeln das Bild gleich sehen soll. Man braucht sich darum nicht selbst kümmern. Bei den Flachschirmen fiel Anfangs auf dass sie von der Seite deutlich verfälschte Farben zeigen. Man musste also möglichst vor ihnen stehen. Das war dann untragbar wenn man jemand von der Seite mitschauen lassen wollte. Und gerade da hatte man eher das Notebook dabei als ein Röhrengerät. Heute ist gerade dieser Fehler wesentlich verbessert. Die 170° Betrachtungswinkel gehören allerdings eher in das Reich der Prospektwahrheit. 180° wäre eine Gerade, das heißt man dürfte ganz seitlich stehen. Und da ist auch bei solchen Geräten die Farbe schon vorher nicht mehr treu. Allerdings ist der mögliche Betrachtungswinkel bei den neueren Geräten tatsächlich weit größer und können zum Beispiel am Stammtisch daher auch fast alle mitschauen.
Natürlich muss man auch bedenken dass die Größe der dargestellten Objekte eine Rolle spielt. Wenn einem die Buchstaben zu klein werden kann man heute bei fast allen Softwareanwendungen diese für die Darstellung anpassen. Wichtiger ist wenn man zum Beispiel für das Web programmiert und Fremde sollen diese Seite sehen. Die kommen auf diese Idee nicht. Erwartet man sich etwas ältere Betrachter sollte die Schrift jedenfalls groß genug sein. Viele Publikationen haben aber vielleicht auch für jugendliche Zielgruppen eine zu kleine Schrift. Auch bei Bildern ist es so dass man sie besser sieht wenn sie größer sind. Hier ist auch an die nächste Zukunft zu denken. Viele haben noch Geräte die bisher Standart waren. Die Bildschirmauflösung steigt daher sicher bei der nächsten Nachrüstung. Das heißt dass mehr Punkte auf die gleiche Bildschirmfläche passen. Das heißt aber auch dass gleich große Bilder jetzt kleiner sind denn sie haben nicht mehr Punkte. Dadurch wird ihre Darstellung schärfer, kann aber durchaus zu klein werden. Ich habe neulich Vorschaubilder auf 200 Punkte an der kürzeren Seite fest gelegt, da erkennt man auch wirklich was auf dem Foto. 100 Punkte an der kürzeren Seite wurde langsam zu wenig.
Was die Strahlung betrifft so gibt es gewisse Unterschiede die sich unter anderem auch im Preis nieder schlagen. Allerdings habe ich da auch die Erfahrung gemacht dass man mitunter die Beleuchtung des Arbeitsplatzes vorher prüft und da was ändert. Für den Heimgebrauch sollten auch billigere Monitore gut sein. Das Auge wird eher durch Flimmern irritiert was bei den Flachschirmen eher nicht mehr das Problem ist oder zu helle oder kontrastreiche Darstellung, diese läßt sich durch Einstellung des Monitors korrigieren. Mit Bindehautentzündung sollte man nicht fernsehen und auch nicht computern. Wenn man längere Zeit ständig vor dem Schirm sitzt ist es legitim einen mit besten ergonomischen Certifikaten zu kaufen.
Der Computerdrucker war bis vor Kurzem das wichtigste Ausgabegerät und ist zur Zeit noch ein wichtiges bei allerdings sinkender Bedeutung. Wir stehen am Anfang der Entwicklung wo man Dokumente mittels Internet zur Verfügung stellt oder veschickt, das hat die Wichtigkeit des Druckers von den Büros auf zu Hause verschoben, man hat dann das Dokument daheim ausgedruckt was auch zur Zeit noch üblich ist. In Zukunft wird man die Dokumente wohl speichern und nicht mehr drucken sondern bei Bedarf am Kastl anschauen. Auch kann man Formulare inzwischen Online aus füllen und mit der elektronischen Unterschrift - das ist sowas wie ein erweitertes Passwort - signieren.
Der Computerdrucker hat eine abenteuerliche Entwicklung hinter sich allein in den 20 Jahren wo ich mich mit der EDV beschäftige. Der legitime Vorläufer war der Fernschreiber. Und damit ein Typenhebeldrucker. Auf wienerisch könnte man sagen "a schreibmaschin mit murl". Dann gab es für die Büros elektrische Schreibmaschinen, bald mit Kugelkopf und schließlich mit Typenrad. Mit der Neuerung dass sich nun der Schreibkopf die Zeile entlang bewegt und nicht mehr wie bei der Schreibmaschine die Papierwalze. Man spricht aber noch heute von Carriage Return bzw. auf deutsch Wagenrücklauf wenn man an den Zeilenanfang zurückkehrt.
Schließlich kamen dann aber die Nadeldrucker und damit die Matrixdrucker. Neun Nadeln übereinander schlugen aus dem Druckkopf zu während dieser über die Zeile gezogen wurde. Dazu gab es noch das klassische Farbband. Es gab die für die damalige Zeit typische Computerschrift. Mit der Einführung der 24-Nadel Drucker und wenn sie zweimal über die Zeile fuhren kam man dann sogar auf die "Near Letter Quality", also fast Schreibmaschinqualität. Die ersten Tintenstrahldrucker hatten dann schon 64 Düsen übereinander. Und damit eine wirklich brauchbare Druckqualität. Von der heutigen Qualität waren sie aber weit weg. Heutige Tintenstrahler kosten zwichen 50 und 200 Euro (mein 24Nadler hat damals 7000 Schilling gekostet = 500 Euro also fast das durchschnittliche Monatseinkommen zu der Zeit was praktisch ca. 1400 Euro heute entspricht).
Heute kriegt man im genannten Preiskorridor Tintenstrahler welche bei 1200 Punkten pro Zoll kleinste Punkte drucken welche auch 1/1200erdstel Zoll groß sind. Und das in Farbe. Im Gegensatz zum Monitor verwendet allerdings ein Drucker die Farben Cyan, Magenta, Yellow und Schwarz (Karbon) (CMYK) sowie neuerdings auch noch Abstufungen dazwischen. Weiß ist das Papier, die Farben leuchten im Gegensatz zum Monitor nicht sondern dunkeln ab. Eine Mischung aller Farben außer Carbon ist schwarz mit ganz leichtem Grünstich; Carbon ist sowieso schwarz. Das Problem Scannervorlage, Bildschirmdarstellung und Ausdruck farblich so ab zu stimmen dass man kaum einen Unterschied kennt hat man heute auch im SOHO-Bereich im Griff und im professionalen Bereich gut im Griff.
Die Thermotransferdrucker waren lange Zeit die Instanz bei Hochqualitätsausdrucken. Im Prinzip waren es Nadeldrucker, die allerdings Punkte aus dem Farbband herausschmolzen welche dann auf das Papier übertragen waren. Da die Tintenstrahler inzwischen technisch so ausgereift sind und es für die besseren auch Spezialpatronen gibt rückt diese immer noch beste Druckqualität in den Hintergrund da der Unterschied in der Druckqualität nicht mehr so groß ist wie der beim Preis. Zumal das nicht billige Band nach nur einmaligem Durchlauf nicht mehr brauchbar ist und dabei eine denkbar niedrige Ausnützung der Farbe hat. Thermodruck wo die heiße Nadel das Papier verfärbt hielt sich lange bei Bedrucken von Papierstreifen in Kassabons oder bei mitschreibenden Stoppuhren sowie beim Protokollieren von Ergebnissen von Laborgeräten direkt an diese angebaut und nur kurz bei Texten und Briefen. Oft war das Thermopapier dabei eine etwas billigere Alternative für das erwähnte teure Farbband das man dann weglassen konnte. Gab es auf Schreibmaschinen mit einfärbigem Layout und da wie gesagt nur wenige Jahre.
Die Laserdrucker sind ein eigenes Kapitel. Die Schwarzweiß-Drucker sind vom Verbrauch her die billigsten. Bei doch guter Druckqualität. Ursprünglich wurde eigentlich ein Foto hergestellt. Es war ein Papier eingespannt das wie ein Fotoabzug beschichtet war. Und dann vom Laserstrahl getroffen wurde. Dann hat mans chemisch fixiert und die Buchseite war fertig. Es gab in den 80er Jahren nur Lehrbücher welche stark geglänzt haben und gespiegelt. Am besten las man sie wenn man die Schreibtischlampe von seitlich darauf scheinen ließ. Dann waren die Buchstaben gut erkennbar und fast plastisch. Für den Heimbereich war diese Drucktechnik ungeeignet. Daher ging man dazu über eine Trommel einzubauen welche vom Laserstrahl angeschossen wird. Dabei wird die Stelle elektrostatisch aufgeladen. Dann dreht die Trommel sich am Schlitz der Tonerkartusche vorbei wo sie eingeschwärzt wird. Am Ende des Schlitzes befindet sich eine Abwischlippe. Diese entfernt die Farbe wieder bis auf die Stellen welche eben elektrostatisch sind. Die Trommel dreht sich weiter und bringt jetzt die Farbe auf Papier. Dann wird die Farbe mittels einer Abwischlippe welche auch die Aufladung aufhebt ganz von der Trommel entfernt und sie kommt danach wieder in den Bereich wo sie dem Laserstrahl ausgesetzt ist. Das Ganze funktioniert ab einer gewissen Mindesttemperatur. Heute sind die Aufwärmzeiten allerdings kurz. Beim Farblaserdrucker gibt es das Ganze vier mal. Was sich bei allen Druckern und besonders bei den Laserdruckern gesteigert hat sind die Seiten pro Minute wenn das Werkel erst mal läuft (pages per minute = ppm). Laserdrucker sind Ganzseitendrucker. Es wird eine Seite in seinen Speicher geladen und dann druckt er diese sebständig. Daher auch immer die Angabe der Speichergröße bei den Laserdruckern. Hat eine Seite zu viel feine Grafik dann wird der Speicher allenfalls zu klein. Es kommt dann eine nicht komplette Seite und meist auch eine entsprechende Fehlermeldung. Fehlerbehebung: Grafik verkleinern; Grafikqualität herab setzen; Speicher nachrüsten; anderen Drucker kaufen...
Jedenfalls muss erwähnt werden dass man aufpassen muss was ein Drucker tatsächlich kostet. Billigere haben oft sehr teure Tintenpatronen über welche man dann sozusagen das Geschäft macht. Das Paradebeispiel ist Lexmark. Der Tintenstrahldrucker ist erst mal billiger als von Billigmarken. Die Farbe ist gelinde gesagt sauteuer. Er macht aber ein sehr schönes Bild vor allem bei Farbbildern und auch schon auf Normalpapier, auf Spezialpapier sowieso. An Spitzendrucker kommt er zwar nicht heran aber für den Durchschnittsgebrauch ist er einfach ausgezeichnet in der Druckqualität. Wenn man also schnell einen Drucker braucht der hervorragend druckt, momentan nicht viel kosten soll und man ihn nachher nur noch gelegentlich verwendet ist das mitunter das Gerät der Wahl. Wenn eine höhere Druckfrequenz vorhersehbar ist frisst er einen arm.
Da steht man nun beim Discounter und will einen Drucker kaufen. Für den Normalgebrauch muss man nicht mehr auf die Qualität achten, die ist bei allen gut bis besser. Die meisten inzwischen das Vierpatronensystem. Schwarz und die drei Farben. Man kann jede Farbe einzeln nach kaufen wenn sie leer ist. Dann gibt es noch die Drucker wo die Farbpatrone auf den Druckkopf aufgesetzt wird und daher besonders billig ist und solche wo der Druckkopf in die Patrone integriert ist und damit mit jedem Patronenwechsel mit gewechselt wird. Beim ersteren Drucker zahlt sich die Reparatur nicht aus wenn mal die Druckköpfe anfangen zu schmieren, bis dahin ist er billiger. Beim zweiteren ist die Sicherheit des schönen Ausdrucks lange gegeben, allerdings sind die Patronen entsprechend teuer. Auch der oben erwähnte Lexmark hat eben ein sehr schönes Druckbild durch einen besonders guten Druckkopf, den man aber mit jeder Patrone neu kauft. Beim Discounter muss man erst mal die Preise der Drucker in Relation zur Ausführung setzen. Dann sollte man schauen was die Patronen kosten (in der anderen Regalgasse!), es steht dabei was man für eine braucht und dann kontrolliert man eben diesen Preis. Also Bleistift und Notizblock sind im Discounterladen nie falsch mit zu haben. Vergiß nicht den Patronenpreis auch in Relation zum angegebenen Durchschnittsverbrauch (auch als Reichweite in Seiten bei gewisser Deckung) zu setzen. Es ist nicht gesagt dass man dann auch so viele Seiten drucken kann; bei besonders brillianten Bildern sind die Farbpatronen gleich weg. Aber als Vergleich kann man diese Zahlen jedenfalls nutzen da die andere Farbpatrone eine dazu adäquate Angabe hat.
Was in meinen Augen nicht unbedingt erforderlich ist sind so genannte Fotodrucker. Die haben schon ihre Berechtigung, aber gerade im Vereinsleben stellt man heute keine Papierfotos mehr her. Man hat alles irgendwo gespeichert. In Publikationen wie Vereinszeitung die ja auch sukzesive durch das Internet ersetzt werden ist der absolute Spitzenausdruck fast fehl am Platz. Geräte die neben den normalen Druckpatronen auch mit so genannten Fotopatronen betrieben werden können werden inzwischen nicht mehr angeboten weil die normale Drucktinte auch Parrafine enthält welche den Ausdruck und vor Allem desssen Haltbarkeit bereits in die Nähe der Fotopatronen bringen. Auch bieten viele Geschäfte einen Ausdruck der digitalen Fotos auf Papier an. Der Preis ist erschwinglich, und die Probleme entsprechenden Drucker kaufen, mit ihm umgehen, Patronen nachkaufen, ihn kaum brauchen und gerade Tintenstrahler müssen regelmäßig verwendet werden um nicht zu verkleben hat man dann nicht mehr. Das Fotoalbum wird zusehends durch die Diashow am Computer verdrängt. Oder man erstellt eine Broschüre mit all den Fotos und lässt diese dann im Kopierladen drucken. Das Heftl kostet dann so viel wie ein Billigdrucker, hat aber gute Qualität, und man erspart sich viel Laufarbeit und die Lehrzeit samt Lehrgeld bis man einen Drucker bedienen kann sowie das laufende Verbrauchsmaterial, mit dem man sich dann auch nicht extra auskennen muss. Es sei denn man braucht das öfter. Bei regelmäßigem Druck hat man die Reihenfolge Selbstausdruck für geringe, Kopierladen bei höherer und eine professionale Druckerei bei hoher Auflagenzahl. Wobei der Selbstausdruck in etwa auf die Kopierkosten hinkommt oder bei kleiner Stückzahl auch darunter liegt; ab einer gewissen Auflage kommt dann der Kopierladen und schließlich die teure Druckerei umgelegt auf das Einzelexemplar am billigsten.
Bilderdruck mit Farblaserdrucker: ja bei Broschüren wenn die Fotos der Illustration dienen und nicht selbst der Zweck sind. Sieht in etwa wie bei den derzeitigen Tageszeitungen aus. Die Geräte sind dann allerdings nicht mehr die billigsten und auch die Kartuschen haben einen mittleren Preis. Sie reichen allerdings lange. Schwarzweißlaserdrucker sind die billigsten Drucker zur Zeit, Farblaserdrucker dann wenn man doch eine gewisse Frequenz hat. Allenfalls wenn zwar viel gedruckt wird aber mit geringer Stückzahl der Einzelexemplare. Laserdrucker liefern allerdings auf allen Materialien Druckergebnisse welche fast die Qualität halten. Der Kopierer im Copyshop ist meist auch ein Laserdrucker.
All-In-One-Geräte welche in einem Kastl Scanner, Kopierer, Drucker und bei etwas höherem Preis auch Faxgerät vereinigen sind inzwischen das Standartangebot. Meiner Meinung nach ist die Qualität des Druckers zu beurteilen. Die anderen Komponenten erfüllen fast immer den Standart zumal hier keine sehr große Entwicklung mehr zu erwarten ist. Ich habe aber den Eindruck dass man dort auch noch etwas veraltete Drucktechnologie verbaut was wiederum heißt aufpassen bezüglich der Druckkosten. Und die hat man auch bei einfachem Kopieren ohne Computer. Die Scanner sind guter Durchschnitt. Bezüglich Fax stagniert der Standart ja schon länger. Ein Vorteil ist dass manche dieser Geräte eingehende Faxes einspeichern und dann gleich als Bilderdatei auf den Computer übertragen können wenn man den ein schaltet. Jedenfalls ist so ein Gerät überlegenswert wenn man Teile davon sowieso braucht. Bei Schaden ist dann aber auch alles im Service und bei getrennten Geräten nur eines.
Die Abstimmung der einzelnen Teilkomponenten einer EDV-Anlage ist ein eigenes Kapitel. Allerdings ist dies im professionalen Bereich weit wichtiger als im SOHO-Bereich. Man misst dort mit speziellen Geräten die Farbe auf einer Scanvorlage, der Bildschrimausgabe und dem Ausdruck. Dann stimmt man die Bildschirmausgabe auf die Vorlage ab damit die Farbtöne gleich sind. Dann macht man das Gleiche noch einmal bezüglich Bildschirm und Drucker. Ziel ist dass das Originalbild, der Scan am Bildschirm und der Ausdruck davon sich zum Verwechseln ähnlich sehen sollen.
Für de Heimbereich reicht es wenn man optisch keinen nennenswerten Unterschied zwischen einem Foto auf dem Bildschirm und im Ausdruck erkennt. Dazu ging ich folgendermassen vor weil es billiger und für den Zweck ausreichend war:
Für den Normalgebrauch kommen nur Tintenstrahldrucker und Laserdrucker in die engere Betrachtung. Nadeldrucker sind nur mehr für professionale Zwecke erhältlich weil sie natürlich noch die Möglichkeits des "Durchschlags" haben wenn man mehrere Blätter in einem Durchgang bedrucken will. (Und haben einen horrenden Preis der sich nur bei Dauerbetrieb amortisieren kann, einst waren sie die billigen Drucker, waren aber auch nicht so robuts und vor allem viel langsamer). Hier ist auch noch das klassische Endlospapier üblich. Das heißt es hängen sehr viele Blätter aneinander mit einer Perforation wo man sie dann abreißen kann. Und oft in vorgefertigter Form wie bei Geschäftsrechnungen wo der Drucker nur die aktuellen Daten einsetzt. Und dabei auch gleich Druchschläge angefertigt werden. Meist weil jedes dieser Blätter außer das letzte hinten eine Farbe aufgetragen haben so dass man nicht mehr das klassiche "Blaupapier" bei legen muss. Normales Endlospapier war vor 20 Jahren mit Abstand das billigste, heute ist jedes Kopierpapier im exakten A4-Format weit günstiger. Im gebleichten Zustand. Ungebleichtes Papier hat sich nicht durchsetzen können wegen der Bilder; die Computerdrucker erzeugen ja keine weiße Farbe die muss das Papier haben.
Während es für den Laserdrucker fast egal ist auf welches Medium er druckt muss man bei den Tintenstrahlern aufpassen. Zwar gibt es fast nur noch Tintenstrahler mit Piezo-Membran-Technologie wo ein Tropfen ausgeworfen wird wenn diese kleine Membran an der Düse unter Strom gesetzt wird und damit eine wesentlich feinere Dosierung möglich ist, die Bubble-Jet-Drucker erhitzten einfach die Düsennadel so dass eine Blase entstand die dann platzte, aber für hohe Anforderungen ist die Oberfläche des Papiers immer noch wichtig. Auch beim Laserdrucker, dort aber nicht so sehr. Normales Kopierpapier ist ein etwas besseres Löschpapier. Es saugt ungemein. Daher kann ein aufgetragener Tropfen nicht auf seinen Platz beschränkt bleiben. Ganz wenig verrinnt der Tropfen auch bei schneller Trocknung. Die Papiersorten welche dem Rechnung tragen haben daher eine speziell beschichtete Oberfläche welche dieses Verrinnen herab setzt. Sie trocknen daher auch langsamer (interessant wenn man auch die Hinterseite bedrucken will, da kleben alle Tintenstrahlausdrucke gern zusammen). Und sind auch teurer. Und noch teurer wenn es heißt sie passen zu einem bestimmten Drucker. Meist sind sie aber nur einseitig beschichtet, so dass es darauf ankommt wie man sie in die Papierlade legt. Für den Fotodruck wird ein sehr glatter Karton verwendet was aber im Vergleich auch am teuersten ist, vor allem wenn er schon auf die Endgröße beschnitten ist. Und die Drucker verwenden Patronen mit sehr paraffinhältiger Tinte; sie sind schon ein Mittelding zwischen Tintendruckern und den oben erwähnten Transferdruckern. Fotogeschäfte und vor allem die Anbieter über das Internet haben dabei eine Druckfrequenz wo sie besonders gute und teure Geräte auf eine Stückzahl umlegen können so dass ein bestellter Ausdruck immer günstiger kommt als der selbst geschnitzte. Man nimmt dann zwar was man kriegt und selbst kann man nochmals nachbessern, aber bei Wiederholung der Druckkosten.
Die Qualität des Papiers wird in Gramm pro Quadratmeter angegeben. Dickeres Papier ist schwerer aber auch besser, so dass diese Angabe die Qualität grob charakterisiert. Das billigste Papier ist ähnlich zum Löschpapier bei 80g/m² und in Paketen zu 500 Blatt erhältlich; ich habe aber dann gleich den ganzen Karton gekauft und jetzt einige Zeit Ruhe. Ich fand auch ein billiges Papier welches mit 65g/m² dünner ist und eine doch glatte Oberfläche hat. Es trägt bei gefalteten Broschüren am Bug nicht so auf. Für meine Zwecke verwende ich fast nur noch dieses, was ja immer seltener wird. Daneben habe ich auch noch etwas schwereres Papier mit Beschichtung, das ich für Schönausdrucke verwende. Allerdings wird das auch bei Bewerbungen die man eute meist auf Wunsch des Adressaten mittels Anhang an ein E-Mail verschickt immer seltener. Und ich habe auch besonders teures Papier für schönen Fotoausdruck, da muss man aber auch die Druckqualität entsprechend einstellen und der Ausdruck kommt doppelt teuer. Ich verwende es gelegentlich bei entsprechenden Anlässen.
Bei anderen Medien muss man beachten ob sie schön biegsam sind denn einen geraden Durchlauf haben nur spezielle Drucker die im Discount-Laden schlicht nicht angeboten werden. Beim Urkundendruck kann es hier schon zu Problemen kommen. Auch die absolute Dicke ist dabei nicht unwichtig, damit sie durchpassen. Bei zu dünnen kann es aber zum Einzug mehrerer Blätter kommen, was sonst erst am Ende der Lebenszeit der Druckermechanik passiert. Overhead-Folien werden immer seltener angewandt da es inzwischen ja auch die Computer-Beamer gibt was einen Ausdruck und dessen Transport inzwischen unnötig macht. Wenn dann muss man vor allem bei Laserdruckern beachten ob die Folien auch die Hitze aus halten; sie sind dann entsprechend gekennzeichnet. Irgendeine Plastikfolie kann schmelzen und damit einen doch auch heute nicht so billigen Laserdrucker unbrauchbar machen oder zu mindest eine aufwändige Reinigung erfordern.
Auf einem deutschen Sender wurde vor Laserdruckern gewarnt weil diese mitunter Feinstaub abgeben der so fein ist dass er von der Lunge entlang der Nervenfasen ins Gehirn gelangt und dann dort Probleme macht. Man meinte es solle ein Laserdrucker in einem eigenen Raum stehen der gut belüftet wird, und zu Hause möge man einen Tintenstrahldrucker verwenden. Der ist aber von den Druckkosten her teurer, und man muss immer wieder was drucken weil sonst die Druckköpfe schlicht eintrocknen. Ich möchte die Bedenken der Deutschen, es war keine Show sondern eine "offizielle" Sendung, hier erwähnen kann es aber zur Zeit nicht selbst bewerten.
Ich habe auch einmal einen Versuch mit den Trasferfolien gemacht die man auf Textilien aufbügeln kann. Gemessen am Arbeitsaufwand ist da aber inzwischen jedes Angebot eines Kopiergeschäftes vor zu ziehen. Hier muss ich wieder darauf hin weisen dass meine Schilderungen und Empfehlungen meinen persönlichen Erfahrung aus ca. 25 Jahen EDV von primitivsten Anfängen zu heutigem Mindeststandart auf diesem Gebiet wider spiegeln. Was jeder für sich für richtig hält ist dessen persönlicher Einschätzung überlassen zumal jemand ja auch noch andere Informationsquellen haben kann.
Ein Drucker muss auch an den Computer angeschlossen sein. Ursprüngliche mittels des seriellen Steckers. Da wurden die Bits hintereinander übertragen, also 8x für ein Byte. Bald führte man die parallelen Anschlüsse ein. Die übertrugen die Daten auf 8 Drähten und damit Pins gleichzeitig. Und damit ein Byte auf einmal. Dann kam der USB-Port (Users Standard oder System Bus). Der ist wieder seriell. Aber in der Schnelligkeit und Stabilität kein Vergleich mehr zum urpsrünglichen seriellen Port. Schneller ist der heute übliche Netzwerkstecker. Er hat verschiedene Namen wie Fast Ethernet, FireWire, und andere. Von den Anschlüssen die dem Normalverdiener zur Verfügung stehen ist er schlicht der schnellste. Er wird daher auch für den Aufbau eines lokalen Netzwerkes LAN (Local Acces Network) verwendet. Hier sind meist verschiedene Einzelplatzcomputer und auch Komponenten wie zum Beispiel Drucker über ein zentrales Kasterl (Router) zusammengehängt zu einem Netzwerk. Im Heimbereich setzen sich netzwerkfähige Drucker erst jetzt durch weil sie teurer waren bei Vorteilen die hier einfach nicht zu tragen kamen. Niemand greift zu Hause mit mehreren Computern auf nur einen Drucker gleichzeitig zu. Eine andere Möglichkeit Computer mit irgendwas zu verbinden ist BlueTooth. Das ist nichts als eine Funkverbindung für kurze Entfernungen. Zu Hause hat sich dabei aber eigentlich nur das Synchronisieren von Mobiltelefonen mit dem PC durchgesetzt zumal diese Technologie nur bei teuereren Notebooks eingebaut ist und man daher ein USB-Gerät zusätzlich braucht; es gibt Tastaturen, Monitore, Drucker und vieles Andere was mittels bluetooth an den Computer angeschlossen werden kann. Da die Reichweite doch bei 10m liegt war das in gewissen Büros eine brauchbare Technologie. Man konnte zum Beispiel mit einem Monitor und der Tastatur die Regale durchsehen, das Kastl blieb an seinem Ort. Ich habe beim Discounter aber auch schon durchaus erschwingliche Drucker gesehen welche mittels WLAN an den Computer angeschlossen werden können.
WLAN ist einfach eine Einbindung von Computern und anderen Komponenten in ein Computernetzwerk mittels Funkverbindung, daher die Bezeichnung Wireless Local Acces Network. Heute haben die Netzwerkrouter automatisch diese Funktechnologie eingebaut. Und gehen gewöhnlich dabei 150m weit, also passend für den Notebookbetrieb im Garten oder in einem kleinen Handwerksbetrieb. Und die Modems welche heute für den Internetanschluß verwendet werden sind ja automatisch solche Router mit LAN- und WLAN-Anschluss. WLAN läuft dabei die Datenübertragung ums Kennen langsamer als über das Netzwerkkabel, aber immer noch sehr schnell, jedenfalls schneller als bluetooth. Was dies für den Drucker interessant macht ist einfach die Tatsache dass ein Verbindungskabel wegfällt, man von allen Computern im Netzwerk drucken kann ohne das USB-Kabel um zu stecken und daher auch bezüglich des Aufstellungsortes unabhängiger ist, es genügt die sicher Stellung seiner Stromversorgung. Die Schnelligkeit spielt beim Drucker sicher keine Rolle er ist ja selbst ein langsames Gerät durch die mechanische Arbeit. Und preislich wirkt sich diese Technologie fast nicht aus.
Bei allen Druckeranschlüssen muss allerdings die Datenübertragung entsprechen. Man spricht vom sogenannten Handshake-Protokoll. Der Drucker kriegt Daten, quitiert diese durch Rücksenden von Signalen und darauf schickt der Computer die nächsten Daten. Sonst könnten zeilenorientierte Drucker wie die Tintendrucker gar nicht arbeiten. Und die seitenorientierten Laserdrucker würden ganze Seiten verlieren. Bei Windows gibt es dazu noch die Zwischenstufe des GDI = Grafik Device Interface. Das ist schlicht ein Programmteil der alle Grafikausgaben inklusive für den Bildschirm und für den Drucker erst mal allgemein zusammen stellt und ein speichert. Dann wird je nach Bedarf eben eine Signalfolge für den Drucker oder den Schirm oder was auch immer daraus berechnet. Und diese Signalfolge über den Anschluss geschickt. Die preisgünstigen Drucker sind GDI-Drucker. Sie müssen die Signale so bekommen um funktionieren zu können. Denn sie haben selbst nur mehr eine sehr abgespeckte Elektronik für deren Verarbeitung und rechnen selbst kaum mehr. Daher sind sie meist auch nur unter Windows einsetzbar, die meisten auch beim MacOS da sie eben diesbezüglich doppelt bestückt sind, aber die klassischen Fernschreibercodes sind ihnen fremd. Sie können nicht aus solchen zum Beispiel Buchstaben selbst erstellen. Ein Grund warum professionale Drucker mehr kosten, die laufen dann aber zum Beispiel auch mit Programmen die ihre Datenausgabe nicht über zum Beispiel Windows bewerkstelligen. Das ist bei branchenorientierter Spezialsoftware oft der Fall; im SOHO-Bereich hat sich der GDI-Drucker durchgesetzt weil 1. billiger, 2. das kurze Warten bis der Computer gerechnet hat nicht so ins Gewicht fällt wie in einem Betrieb wo bezahltes Personal auf das Weiterarbeiten wartet bei hoher Druckfrequenz und 3. im SOHO-Beich eben Betriebssysteme vorwiegend sind welche über ihr GDI-Modul die nötige Vorarbeit selbst bewerkstelligen.
Die ersten PCs hatten einen ROM-Speicher der nicht geändert werden konnte und einen RAM-Speicher der bei Stromabschaltung (und Stromausfall) seine Daten verlor. Es mussten also wohl die Daten immer frisch eingegeben werden entweder über Lochkarten oder die Tastatur und wieder ausgegeben werden entweder wieder über Lochkarten oder über Schreibmaschinen ähnliche Drucker. Die Suche nach und die Entwicklung von entsprechenden Speichermedien war daher eine logische Folge.
Einen Schwung erhielt die Verkaufbarkeit von PCs als man Daten auf Bänder speichern konnte. Man verwendete dazu die bereits bekannten Tonbänder. Und da zu dieser Zeit auch die Kasettenrekorder auf kamen adaptierte man auch solche dafür. Die Speicherung ähnelte damals und ähnelt auch heute noch dem Prinzip der Lockkarte. Nur dass es an statt der Löcher magnetische Ladungen gibt. Auf einem länglichen Band kann man aber nur sequentiell speichern und lesen. Die einzelnen bits, also die Tatsache ob ein bestimmter Punkt magnetisch ausgerichtet ist oder nicht, können nur hintereinander liegen. Und acht solche ergeben dann das Byte. Das entspricht ganz primitiv (und heute nicht mehr ganz richtig) einem Anschlag auf der Schreibmaschine und damit einem Buchstaben. Allein darüber könnte man lange schreiben. Jedenfalls bedeutet ein Byte eine Zahl zwischen 0 und 255. Und das Programm ordnet dann je nach Gegebenheit dieser Zahl etwas zu. Bei Text der Zahl 65 das große A, bei 97 das kleine a, bei 9 den Tabulator, bei 10 den Zeilenvorschub, bei 12 den Seitenvorschub... also eigentlich die alten Fernschreibercodes. Bei der Speicherung wird das Senden und beim Auslesen das Empfangen von Fernschreibercodes immitiert, zumindest wenn man es möglichst primitiv betrachtet.
Man musste gezwungener Maßen die Aufzeichnung formatieren. Da man nicht für jede Datensammlung (daher die Bezeichnung Datei) eine eigenes Band nehmen wollte musste man Anfang, Länge und Ende einer Datei irgendwie fest legen. Dazu gibt es standartisierte Bytefolgen welche dem Programm sagen dass hier was beginnt. Dann folgt der Name der Datei. Und dann die darin gespeicherten Daten. Und schließlich irgend eine Endsequenz. Suchte man eine bestimmte Datei so schrieb man ein kleines Programm das eine Datei mit entsprechendem Namen suchte und auch lud. Spulte das Band weit genug zurück. Ließ es dann vorlaufen. Alles mit den Tasten des Kasettenrekorders. Und startete dann das Programm. Welches die Daten dann einlas in das RAM wenn die entsprechende Stelle erkannt wurde. Das Speichern ging analog umgekehrt mit der Erschwernis dass man sich überzeugen musste dass man nichts Wichtiges überschrieb. Das klingt heute wie unmöglich umständlich, aber GERADE DAS war neben Bildschirm und Tastatur DER DRITTE ENTSCHEIDENDE FAKTOR für die Verbreitung der PCs bzw. der Weckung des Interesses in der Normalbevölkerung und zwar weltweit.
Es gab dann Bandlaufwerke mit unteschiedlicher Qualität sowohl des Laufwerkes als auch der verwendeten Kasetten. Auch die Minikasetten der Diktiergeräte waren dann mal im professionalen Bereich durchaus genutzt. Die Riesenspulen gab es nur noch bei den ganz großen Rechenzentren. Man sah solche am Wahlabend bei der ersten Hochrechnung, da stand der Professor vor einer riesigen Wand mit lauter Magnetbandspulen die sich abwechselnd drehten. Heute steht der vergleichbare Kommentator vor einem Notebookcomputer... Lange nachdem sich die Disketten durchgesetzt hatten wurden Bandlaufwerke noch für die Datensicherung verwendet.
Tastatur, Bildschirm und Bandlaufwerk sind also die Komponenten des Computers die seinen Siegeszug in kleine Büros und Wohnzimmer (oder doch gleich Schlafzimmer) gestartet haben. Die Erfindung der Diskette war dann die Revolution welche diesen Beginn fort setzte. (Diskus ist das griechische Wort für Scheibe und Diskette ist eine kleine Scheibe). Dabei handelt es sich streng genommen um nichts anderes als beim Band. Auf einem Trägermaterial ist eine Schicht aufgetragen die magnetisierbare Späne einschließt. Und diese können eben magnetisiert werden oder nicht. Das bewerkstelligt ein Schreibkopf. Und ein Lesekopf kann dies dann auslesen indem er auf die geänderte Magnetisierung reagiert. Der Unterschied liegt darin dass es sich jetzt aber um kleine Scheiben handelt anstatt langer Bänder.
Das klassische Diskettenlaufwerk ist in den neuen Computern ebenso nicht mehr eingebaut wie ein Bandlaufwerk. Aber man kann die Grundfunktion einer Diskette und deren Formatierung anhand der einfacheren Floppy Disk gut erklären, im Prinzip gilt dies ja noch für alle heute gebräuchlichen Scheiben ob in der HD oder DVD oder was auch immer. Die Bezeichnung Floppy stammt daher dass man die Diskette austauschen kann und sie dabei doch etwas weich ist von der Konsistenz her, zumindest die älteren. Der Vorteil: man hat so viel Speicherraum als man Disketten hat zum Wechseln. Der Nachteil: die einzelne Diskette hat sehr wenig Speicherraum. Und den Vergleich mit den neuesten HDs halten sie überhaupt nicht mehr aus. Für den Datentransport sofern er nicht per E-Mail oder über bereit Stellung auf einer Webseite läuft verwendet man heute USB-Sticks oder Speicherkarten. Lange Zeit war die Floppy (also die Diskette die man wechseln konnte) einfach DAS Medium für die Speicherung und den Austausch von Daten.
So eine Diskette war anfangs sehr groß, dann wurde sie direkt handlich bei 8 Zoll Durchmesser = 20cm. In den Massenbereich schaffte es dann die kleinere Ausführung mit 5-1/4 Zoll. Den Vogel schossen dann die 3,5 Zoll Scheiben ab. Vor allem weil sie in einer nicht mehr biegsamen Plastikhülle waren mit einem Metallschieber der bei Lagerung geschlossen war. Fing man am Commodore-Computer mit einer unvorstellbar großen Datenmenge von 170 KB (Kilobytes, ein Kilobyte = 1024 Bytes) bei der fünfeinviertler an, so war man am Ende der Dreieinhalbzoller standartmäßig bei 720 KB pro Seite also 1,44MB (Megabytes, ein Megybyte = 1024 KB) beidseitig. Kurz gab es dann auch noch 2,88 MB als Speicherkapazität da man die Daten dichter schreiben konnte, die waren etwas teurer denn der entscheidende Unterschied war die erforderliche Mindestqualität. Heute nicht mehr vorstellbar: es kam ein Commodore Computer heraus der hatte neben der Mos-Maschine (Commodore 64) auch eine Z80-Maschine (war in den allerersten PCs ein gebaut), ein sehr großes RAM von 128 KB (Kilobytes nicht wie heute Gigabytes!!) und ZWEI 5,25Zoll-Laufwerke zu je 170 KB und bereits eine externe Tastatur. An eine Maus kann ich mich nicht erinnern. Der kostete umgerechnet ca. 1000 Euros, etwa zwei normale Monatseinkommen der Zeit. Und als Zubehör gab es ein Harddisklaufwerk mit der unvorstellbar hohen Kapazität von 1 Megabyte (richtig gelesen!) um nochmals ca. 1000 Euros (jeweils ca. 13.000 Schilling) und zwar als Aktion im Konsumgroßmarkt. Ohne Bildschirm und so! Also hier hat sich in 20 Jahren eine Menge getan. Heute werden wir an den Standart der 3,5Zöller noch erinnert weil es noch immer Geräte gibt die in die dafür nötigen Einbauschächte passen. So hat man seither unzählbar viele Varianten von Harddisks gebaut welche in den Außenabmessung darauf hin kamen und kommen.
Im Prinzip geschieht die Datenspeicherung auf einer Disk nicht anders als auf einem Band. Die Diskette dreht sich und ein Schreib-Lese-Arm an desse Spitze eine Schreib-Lese-Kopf sitzt wird von außen nach innen geführt. Das ergibt aber den Hauptunterschied zum Band dass jeder Punkt auf der Diskette schnell erreichbar ist.
So eine Diskette hat sogenannte Spuren oder englisch Tracks. Das bedeutet nichts anderes als eine Einteilung dahin gehend dass man sich rund um die Scheiben außen erst mal einen Kreis vorstellen muss entlang diesem die Daten gespeichert sind. Das gibt es dann noch mehrere Male nach innen. Die 3,5er hatten 120 Tracks. Nun ist aber ein Diskettenlaufwerk ein feinmechanisches Wunderwerk. Und damit die Disketten die mit Einem beschrieben werden auch mit (möglichst) allen Anderen lesbar sind muss es Orientierungen geben. Daher sind Disketten zu formatieren. Das heißt es muss auf einer Spur Markierungen geben zwischen denen dann tatsächlich die Daten stehen. Es handelt sich dabei um eine bestimmte Folge von Bytes an denen das System erkennt dass hier ein Datenbereich anfängt und dann um solche die das Ende markieren. Dazwischen liegen dann die tatsächlich gespeicherten Daten. Da diese Bereiche auf allen Spuren existieren sieht das Ganze so aus wie Tortenecken, von außen nach innen betrachtet. Und da der schönere Ausdruck für Tortenecke Kreissektor ist spricht man von den Sektoren. Man meint damit allerdings nur den Bereich auf einer Spur, korrekterweise müssten das alle "Sektoren" von außen nach innen sein. Auch heute hat ein Sektor nur 128 Bytes. Allerdings gibt es auf modernen Laufwerken viele Sektoren und auch viele Spuren. Dazu später bei der Harddisk. Betriebssysteme fassen allerdings schon seit Längerem mehrere Sektoren zu sogenannten Clustern zusammen. Und dann bezeichnet man einen Cluster vereinfachend wieder als Sektor. Erkennbar ist das heute noch da die Betriebssysteme immer angefangene Cluster ganz für die Speicherung zur Verfügung stellen. Auch Editor-Dateien wo nur ein Wort gespeichert ist werden daher im Explorer als 4KB entspricht nach der Logik 4096 Buchstaben groß angegeben. Die so verloren gehende Speicherkapazität spielt aber bei den heutigen Laufwerken keine Rolle mehr wenn ein durchschnittliches Bild komprimiert um die 6 MB belegt.
Eine Diskette muss also erst mal formatiert werden. Das heißt es müssen die Daten aufgebracht werden welche die Sektoren markieren. Damit jedes Laufwerk diese auch findet. Ich denke damit sollen kleinste Unterschiede in der Feinmechanik ausgeglichen werden. Es wird geschrieben oder gelesen wenn eine solche Markierung gefunden wurde. Bei normaler Neuformatierung muss nicht das Bisherige wieder genau getroffen werden. Daher sind durch Formatieren eines Datenträgers die Daten am schnellsten zu löschen. Durch Spezialgeräte lassen sie sich dann aber doch noch auslesen. Will man sie endgültig vernichten bei Erhaltung des Gerätes so muss man sie schlicht überschreiben, mit einem anderen Inhalt. Das kann die Wiederholung eines bestimmten Bytes sein oder die wiederholte Speicherung zum Beispiel des Bildes vom Sonnenaufgang unter immer anderem Namen und dann die Dateien wieder löschen. Das kann zwei Gründe haben: sensible Daten wie Betriebsgeheimnisse oder hoffentlich bei uns nie Material das strafrechtlich nicht am Computer sein darf. Normalerweise genügt normales Formatieren, das geht schneller und der Datenbereich ist wieder frei gegeben und bei normalem Gebrauch sind die Daten weg, auch wenn sie noch da sind aber das Betriebssystem kann nicht mehr zugreifen. Spezialprogramme wie sie die Polizei hat oder auch Firmen die sich auf "Datenrettung nach irrtümlicher Löschung" spezialisiert haben allerdings schon.
Ist die Diskette formatiert muss man auch Daten drauf schreiben. Mit der gleichen Vorgabe wie beim Band dass man sie auch finden muss. Die heutigen Computer arbeiten beim Einschalten erst mal ihr ROM ab. Das dortige Programm sucht allerdings nach einem Betriebssystem auf den Disketten. Früher war dieses auch auf der Floppy gespeichert, heute natürlich auf der HD. In beiden Fällen muss es einen Boot-Sektor geben. Von dort geht es dann weiter zum tatsächlichen Finden und Starten des Betriebssystems. Eine startfähige Diskette mit Betriebssystem bezeichnet man daher auch als Boot-Diskette. Boot (sprich buut) ist ein englisches Wort für etwas was sich ganz an der Basis von etwas befindet. Es kann daher Stiefel bedeuten, der Friedhof ist der Bootyard, aber auch die unterste Ebene der Computerprogramme bezeichnet man als Boot-Bereich. Logischerweise muss sich der Boot-Sektor gleich am Anfang befinden.
Auch wenn sich auf der Diskette nicht das Betriebssystem befindet müssen die Daten organisiert sein. War beim Band am Anfang einer Datei deren Name angeführt und die Länge bzw. verschiedene Parameter die ich im Detail auch nicht (mehr) kenne so funktioniert das auf der Diskette nicht mehr so. Daher sind die Dateinamen in der ersten Spur abgelegt. Man spricht dabei von einem Directory, Folder, Ordner oder Verzeichnis. Das erste Verzeichnis ist dabei das Root-Directory oder Stammverzeichnis. Hier sind Datenblöcke derart organisiert dass ein Dateiname existiert, ein Hinweis ob es sich tatsächlich um eine Datei oder ein Unterverzeichnis handelt, sowie Hinweise auf den tatsächlichen Speicherort, die Größe und andere Parameter. Löscht man eine Datei dann wird nur der erste Buchstabe durch ein Leerzeichen ersetzt. Dann wird diese Datei bei neuerlichem Speichern von irgendwas nicht mehr berücksichtigt und vor allem ist der zugeordnete Speicher jetzt wieder frei. Bis zu dessen neuerlicher Überschreibung bleibt allerdings sein Inhalt erhalten so dass man Daten frisch gelöschter Dateien mitunter mit etwas Systemkenntnis (die ich aber nicht mehr habe) noch retten kann. Und hier ist nicht die Rede vom Verschieben in einen "Papierkorb" sondern vom tatsächlichen Löschen.
Früher gab es den Dr. Norton. Das war ein Datei-Verwaltungsprogramm von der Firma Norton welches die Organisation der Dateien mit Anzeige in Auflistungen, aber auch Funktionen wie Überschreiben frei gewordener Diskettenbereiche nach Defragmentierung und andere Funktionen zur Verfügung stellte. Das Defragmentieren selbst wurde dann von Microsoft gekauft so dass jetzt auch der Windows Explorer so ein Programm zur Verfügung stellt. Wohl auch andere Funktionen. Viele der Dienstprogramme des alten DOS (Disk Organization System, das erste taugliche Betriebssystem für PCs) finde ich heute nicht mehr bei Windows entweder weil ich es schlicht übersehe oder auch weil es das nicht mehr gibt. So gab es ein kleines aber feines Programm das eine Diskette Sektorweise eingelesen hat, dann dort was hingeschrieben hat, dieses wieder eingelesen und verglichen hat und schließlich die originalen Daten wieder hingeschrieben hat. Damit wurde einerseits die Magnetisierung des Sektors erneuert und andererseits konnten Bereiche erkannt werden welche die Datensicherheit nicht mehr gewährleistet haben. Sie wurden dann vom Gebrauch durch das Betriebssystem ausgeschlossen. Wenn man mit seinem Betrieb von einer Datensicherheit abhängig ist dann sollte man bei professionellen EDV-Anbietern und nicht im Diskount-Markt ein vergleichbares Programmpaket erwerben um die HDs regelmäßig zu warten und zu überprüfen. Gleichtzeitig sollte man Raid-Stapel verwenden wobei die Daten auf mehreren HDs des Computers gleich gespeichert sind um wenn eine Diskette als fehlerhaft erkannt wird diese zu tauschen und von der anderen Diskette die Daten wieder herzustellen. Gleichzeitig empfiehlt sich die Sicherung auch auf ein anderes Gerät und zusätzlich von ganz wichtigen Daten auch außer Haus für den Fall eines Brandes der natürlich ALLE Bürogeräte vernichten kann die in seinem Wirkungsbereich stehen.
Als Namen für Dateien wie auch für Verzeichnisse sollte man "sprechende" Namen verwenden die einem auch nach Jahren noch sagen was damals gemeint gewesen sein könnte. Sonst dreht man durch wenn man später was sucht. Windows hat in den jüngeren Versionen die Möglichkeit zu 256 Zeichen pro Dateiname, da kann man eine Kurzbeschreibung unter bringen, jedenfalls sollte man nicht Abkürzungen verwenden die einem nach wenigen Wochen nichts mehr sagen. Das war früher so als der Dateiname acht Buchstaben haben durfte. Auch sollte man nicht Standartnamen mit angefügter Nummerierung verwenden wenn man nicht parallel dazu wo die Hinweise dazu gespeichert hat. Was zeigt die Sportaufnahme mit der Nummer 7368 nun wirklich? Ein Datensatz mit Meisterschaft xy des Jahres yz Athlet nn bei Disziplin ab ist auf Bild 7368 kann das heißen. Bild 7368 allein sagt gar nichts. Und ich suche ein bestimmtes Bild unter 10000 oder mehr... Hinten hat jeder Dateiname eine Dateierweiterung. Die ist abhängig von dem Programm mit dem die Datei erstellt wurde. .doc für Word-Dokumente, .txt für gewöhnlich unformatierten Text, .jpg für bestimmte Bilderdateien und viele mehr. Der hauptsächliche Sinn dieser Erweiterung liegt darin dass das Betriebssystem erkennt welches Programm für so eine Datei zuständig ist. Bei .doc-Dateien wird daher Word geöffnet und ihm diese Datei übergeben. Das Programm erkennt dann aber am Inhalt ob es sich tatsächlich um eine Datei handelt mit dem es arbeiten kann und gibt andernfalls eine Fehlermeldung aus.
In der Praxis arbeitet man aber fast nie längere Zeit an nur einer Datei die sich dann einfach verlängert. So kann es vor kommen dass man an einem Aufsatz schreibt mit der Textverarbeitung, dann wird beim Speichern eine entsprechende Datei angelegt. Im Verzeichnis wird dazu der Eintrag erstellt, irgendwo beginnt die Datei und zwar am Anfang eines Sektors, und wenn sie in einem Sektor nicht Platz hat dann wird der nächste Sektor beschrieben und so weiter. Arbeitet man neuerlich an dieser Datei dann wird der letzte Sektor aufgefüllt und dann geht es wieder beim nächsten freien weiter. Inzwischen hat man aber vielleicht ein Kalkulationsblatt angelegt, das dann anschließend an unsere Textdatei beginnt und ebenfalls einige Sektoren belegt. Dann vielleicht ein Bild gespeichert, einen Brief usw. Arbeitet man an der ersten Datei weiter so wird diese über den nächsten freien Sektor verlängert. Das ist für das Betriebssystem kein Problem. Inmitten liegen die anderen Dateien und es gibt irgendwo eine Information wo es weiter geht. Bei neuerlicher Arbeit am Kalkulationsblatt geschieht das Selbe. Man spricht dabei von der Fragmentierung der Dateien. Jede Datei ist auf mehrere Fragmente aufgeteilt. Das ist nach längerer Arbeit mit Windows sicher der Fall. Daraus ergibt sich ein Problem. Es kann in einem Zug nur ein Fragment eingelesen werden. Dann wird der Schreib-Lese-Arm in die Grundstellung zurück geführt (was man mitunter als leichtes Klacken hört wenn er anschlägt) und er muss in einem neuen Durchgang das nächste Fragment einlesen. Das belastet nicht nur das Laufwerk mehr sondern braucht auch Zeit. Windows kann elendig langsam werden, zumal das Gesagte auch die zahlreichen Dateien betrifft welche Windows selbst für seine Funktion an legt. Es wird Zeit die Diskette zu defragmentieren, also die Fragmentierung auf zu heben. Dazu gibt es ein Dienstprogramm welches das bewerkstelligt. Es kann aber nicht gleich eine Datei durchgehend in einem zusammen hängenden Bereich gespeichert werden, denn dort liegen ja noch die Daten der anderen Datei weswegen es ja zur Fragmentierung gekommen ist. Die Lösung ist die dass der nötige Speicherraum frei gemacht wird indem die dort liegenden Sektoren an das Ende der Diskette verschoben werden. Defragmetieren funktioniert also nur solange genug Platz ist "um sich rühren zu können". Ist der so gewonnene Platz lukriert dann wird die Datei zusammengeführt. Mit der nächsten Datei verfährt das Defragmentierungsprogramm auch so bis am Ende alle Dateien jeweils in einem Zug ausgelesen werden können. Und der Platz am Ende der Diskette wieder frei gegeben ist. Windows ist dann wieder schnell und das Ganze kann von Vorn beginnen bis Es wieder so weit ist. Da dieser Vorgang aber logischerweise das Laufwerk hoch belastet, bei kaum einer anderern Anwendung muss der Schreib-Lese-Arm so viel und so lange zwischen den Endanschlägen hin und her bewegt werden, sollte man vorher wichtige Daten sichern. Und zwar auf einen anderen Datenträger, nicht auf eine andere Partition. Dazu mehr unter Harddisk. Eine Datei auf einen zusammen hängenden Speicherplatz auf einem anderen Datenträger zu kopieren ist immer auch eine Defragmentierung. Diskcopy aber nicht, da wird der Inhalt 1:1 übertragen. Wenn man eine USB-Disk immer dazu verwendet um fertige Dateien (z. B. Bildersammlungen) auf ihr zu speichern dann ist diese auch nie wesentlich fragmentiert. Im Bereich des frei gegebenen Speichers sind aber noch die Bytes vorhanden die vorher dort abgelegt waren. Es gibt Defragmentierungsprogramme welche den restlichen Speicher Byte für Byte überschreiben. Was allerdings auch dauert. Dann kann nicht mehr rekonstruiert werden was mal auf dem Computer war. Ein Grund warum man eine Diskette neu defragmentiert kann auch das Durcharbeiten der Verzeichnisse sein wenn dabei immer wieder Dateien heraus gelöscht werden die man nicht mehr braucht. In den entstandenen Lücken würden neuerliche Daten eingefügt werden was dann zwangsläufig wieder zur Fragmentierung führt. Es gibt auch Anwendungsprogramme die schöner laufen wenn viel zusammenhängender Speicher auf der Diskette vorhanden ist, dazu gehören auch einige Bildbearbeitungen und auch Videobearbeitungen wo man froh ist wenn sie nicht zu sehr gebremst werden weil sie durch die umfangreichen Funktionen auch auf neuen Geräten mitunter träge laufen.
Jede Magnetisierung verliert mit der Zeit. Das ist erst mal kein Problem. Der Computer reagiert auf eine magnetisierte Stelle immer voll oder gar nicht. Es wird also ein Bit eingelesen wenn die Magnetisierung noch ausreicht um den Lesekopf zu reizen. Wenn sie etwas zu schwach wird aber nicht mehr. Bei Kopieren der Daten auf einen anderen Datenträger sind diese Daten dann allerdings wieder frisch. Es gab unter DOS ein Dienstprogramm welches Abschnitte der Diskette Byte für Byte einlas, dann Daten dort hin schrieb, dann diese überprüfte und schließlich die ursprünglichen Daten wieder hin schrieb. Und dabei fehlerhafte Sektoren meldete bzw. von der Benutzung durch das Betriebssystem aus schloss. Ich finde so ein Programm nicht mehr. Heute kann man eine Datei auf einen anderen Datenträger kopieren (z. B. USB-Harddisk) und dann von diesem wieder zurückkopieren, dann sollten die Bytes bzw. deren Bits wieder neu geschrieben sein. Im SOHO-Bereich kommt aber oft der Wechsel im Zuge einer Auf- oder Umrüstung zuvor.
Auf Seiten des Computers muss es einen Diskkontroller geben. Der ist meist auf dem Mainboard integriert. Die Disketten sind richig an zu schließen. Meist mittels eines Breitbandkabels. Die jüngsten Computersysteme erkennen alle Datenträger automatisch und vergeben der Reihe nach die Laufwerksbuchstaben. Das Laufwerk 0 erhält den Buchstaben A, Laufwerk 1 wird B und diese beiden sind immer noch für Floppy-Laufwerke reserviert. Daher fängt jeder Computer mit C an. Dazu mehr unter Harddisk.
Bei der so genannten Hard Disk gibt es ein geschlossenes Gehäuse was das Wechseln des Datenträgers unmöglich macht. Daher die Bezeichnung Hard im Gegensatz zu Floppy. Prinzipiell muss man sich vor stellen dass die Scheibe in einem Ölbad läuft. Dadurch kann sich das Ganze viel schneller drehen. Und können viel kleinere Punkte angesteuert werden. Was die Speicherkapazität am zur Verfügung stehenden Platz wesentlich erhöht. Dazu befinden sich mehrere Scheiben an der Achse. Der Schreib-Lese-Arm sieht dann aus wie ein feiner Kamm denn er braucht pro Scheibe eine Spange mit einem Schreib-Lese-Kopf an der Spitze. Neuere Harddisks sind immer größer bezüglich der Speicherkapazität und zumindest am Anfang des Datenbereiches schneller zu beschreiben und lesen als ihre Vorgänger bei Tendenz zu sinkenden Abmessungen. Zur Zeit sollten für einen Vereinsfunktionär 350 Gigabyte genügen, viele preisgünstige Computer haben das mindestens.
Die prinzipielle Organistation der Daten ist immer noch analog zu der auf der Floppy Disk. Erst einmal muss die Diskette formatiert werden. Das geht mit der mitgelieferten Windows-Diskette. Oft ist Windows vorinstalliert. Man sollte aber immer darauf achten dass man auch eine Diskette des Betriebssystems mit geliefert bekommt. Dann kann man Windows mitunter neu auf setzen wenns mal nicht mehr funktioniert. Bei der Formatierung werden alle Daten von der Disk oder der Partition gelöscht. Bei Neuformatierung sollte man bei den heutigen großen Disketten mindestens zwei Partitionen anlegen. Eine wird dann als Laufwerk C bezeichnet und enthält das Betriebssystem und die installierten Programme sowie deren direkte Systemdaten. Die Daten welche man bearbeitet hat sollen alle auf die zweite Partition welche den Laufwerksbuchstaben D erhält. Windows nummeriert dann alle weiteren erkannten Speicher fort laufend, vor allem wenn man zum Beispiel ein Kartenlesegerät ansteckt. Dazu mehr bei den Betriebssystemen.
Eine Partition ist wie der Name sagt ein Teil einer Diskette. Auf einem zusammenhängenden Speicherbereich. Man startet also den Computer von der mitgelieferten CD und formatiert und legt dabei gleich zwei Partitionen an. Dann kann man die einzelne Partition wie ein eigenes Laufwerk behandeln und gegebenen falls später neu formatieren. Bei Windows war dies bei jedem meiner bisherigen Computer außer dem aktuellen der noch nicht sehr lange läuft nötig. Dann lief das neu installierte Windows gut und stabil für Jahre. Näheres im Kapitel Windows. Jedenfalls sollte man nur Daten auf C speichern die man von irgendwo ohne unnötigen Aufwand wieder installieren kann. Da sitzt man schon einen Sonntag lang. Es handelt sich dabei um das Betriebssytem, installierte Programme und deren umittelbare Systemdaten. Schon der Download eines Programmes wo meist erst ein Programm geladen wird das dann die Installation bewerkstelligt sollte auf das Laufwerk D erfolgen. Damit dieses Intallationsprogramm nach Neuformatierung von C noch da ist und ein neuerlicher Download verzichtbar ist. Sonst werden es zwei Sonntage...
Nach Formatierung von zwei Partitionen mittels des Dienstprogrammes auf der Windows-CD (kann je nach Größe der HD locker Stunden dauern) installiert man Windows. Ein bis drei Stunden später sollte dann der Computer laufen. Dann kann man Anwenderprogramme nachinstallieren. Für die sollte man die Installationsdisketten oder einen entsprechenden Download zur Verfügung haben und auch auf bewahren. Die Dateien welche man mit den Programmen erzeugt sollten auf D gespeichert werden. Aber Achtung! Es handelt sich um eine Partition desselben Laufwerkes. Die bei mechanischem Schaden ebenfalls nicht mehr zur Verfügung steht. Daher wichtige Daten auch auf andere Datenträger sichern, dazu später im Abschnitt Software.
Partitionen haben natürlich auch den Vorteil dass sie in sich abgeschlossene Datenbereiche sind. So werden bei Angabe des zugehörigen Laufwekes im Pfad einer Datei (dazu später) die Daten gleich hier gesucht. Was den Zugriff bei bereits hoher Belegung der Diskette wesentlich beschleunigen kann. Auch Defragmentierung und seltener Neuformatierung einer Partition ist wegen des kleineren Speicherumfanges schneller. Eine weitere Partition kann man anlegen indem man über die Systemsteuerung das entsprechende Dienstprogramm findet und startet. D sollte vorher defragmentiert werden. Und muss hinten den gebrauchten Speicherraum frei zur Verfügung haben. Dieser kann nun frei gegeben werden und anschließend als neue Partition organsiert werden. Umgekehrt geht das Löschen von Partitionen. Hier wird der Speicherraum einer Partition frei gegeben und kann dann auf die Vorherige zugeschlagen werden. Das funktioniert aber nur wenn er physikalisch auch anschließend an diese liegt. Nach meiner Erfahrung sollte man die ursprünglich angelegten Partitionen gut überlegen und nur selten ändern wenn es sich als notwendig erweist. So kann ich mir vorstellen dass man für alle Daten die Partition D wie oben empfohlen an legt und für eine besonders große Bildersammlung die Partition E damit der Zugriff auf diese gezielter und damit schneller erfolgt.
Braucht man eine zweite HD? Sie ist nicht schlecht zur Datensicherung. Wenn eine HD mechanisch beschädigt ist dann kann man sie gar nicht mehr lesen. Bei Notebooks empfiehlt sich eine HD die man mittels USB-Stecker verbindet. Sie ist nicht die schnellste aber schon bei erschwinglichem Preis sehr groß. Es empfiehlt sich von Zeit zu Zeit Verzeichnisse mit wichtigen Daten einfach dorthin zu kopieren. Weiteres zur Datensicherung siehe später. Man kann bei Standgeräten auch einen RAID-Stapel in Erwägung ziehen. Der einfachste hat zwei identische HD-Laufwerke welche gespiegelt sind, das heißt sie sind identisch bezügliche dem Dateninhalt. Das ist nötig wenn man wirklich existentiell wichtige Daten hat bei deren Verlust so was wie der Konkurs droht. Gerade da laufen ja die HDs auch viel mehr als bei Heimgebrauch. Man hofft dass nicht beide gleichzeitig den Geist aufgeben. Ersetzt dann die Kaputte und sobald das Ganze wieder im Einklang ist vorsichtshaber die Zweite welche ja ungefähr gleich alt ist. Ganz wichtige Daten sollten aber auch außer Haus gespeichert sein, denn wenn die Hütte brennt sind auch alle Reservegeräte hin.
Nicht sollte man Daten unter "Eigene Dateien" speichern obwohl das von den Programmen so als Voreinstellung vorgeschlagen wird. Dann liegen sie nämlich wieder im Windows-Bereich. Man sollte sicher stellen dass man beim erstmaligen Speichern einer Datei das Menü "Speichern unter" aufruft und dann ein Verezichnis auf D auswählen. Oder falls nötig auch neu anlegen. Man sitzt ja oft lange bis eine Datei fertig ist und sollte daher diese nicht unnötig riskieren. Daher muss das Laufwerk C auch nicht die größere Partition sein. Bei mir sind ca. 50 Gigabyte derzeit belegt. Man braucht also nicht gleich die Hälfte eines großen Laufwerkes wie es bei mir derzeit der Fall ist. 10 Gigabyte Reserve genügen. Wenn man aufwendige Programme nachinstalliert kann man die Partition wohl noch ändern. Da in der jetzigen Phase aber auch die Daten-Partition D nur zu einem Drittel belegt ist obwohl dort viele Bilder und einige Videos sind hat das noch Zeit.
Schonend für jede HD ist ein großes RAM im Computer. Windwos braucht nämlich viel Speicherplatz für seine Daten während der Laufzeit. Und die Programme auch. Wird das interne RAM zu klein dann wird die Auslagerunsdatei angelegt. Dort wird alles hin gespeichert was im RAM nicht Platz hat und im unmittelbaren Moment nicht gebraucht wird. Und dann fortlaufend ausgetauscht. Ist das RAM groß genug, man spricht zur Zeit von 4 GB und empfiehlt 8 GB, dann kommt es seltener zur Beanspruchung dieser Swap-Datei. Während beim alten Computer die HD dauernd lief steht sie jetzt zwischendurch immer wieder längere Zeit. Und kann daher auch eine Videobearbeitung für den Amateurgebrauch schnell genug laufen. Mehr dazu bei der Software.
Es gibt heute Speichermodule welche leicht an den Computer angesteckt werden können und dann wie ein weiteres Laufwerk zur Verfügung stehen. Der momentan bekannteste solche Speicher ist der USB-Stick. Da ist der Speicher mittels eines Steckers in den USB-Port ein zu stecken. Ebenfalls geläufig sind die zum Beispiel in Digitalcameras arbeitenden Speicherkarten. Die gibt es in verschiedenen Abmessungen und dabei mit verschiedener Speichergröße. Im Prinzip sind sie nichts anderes als die Speicher des USB-Steckers. Bei gleicher Speichergröße kosten sie auch in Etwa das Selbe. Preisunterschiede ergeben sich eher durch den Markennamen da es auch Billiganbieter gibt die aber mitunter ausreichende Qualität bieten. Die Computer haben entweder einen oder mehrere Kartenslots wo man solche Karten sofern sie hinein passen anstecken kann. Es gibt auch Kartenlesegeräte welche man wiederum an den USB-Port ansteckt. Dann ist man unabhängiger vom Kartentyp da diese Geräte oft viele von ihnen akzeptieren. Wesentlich ist dass in all diesen Fällen die Daten auch ohne Stromversorgung erhalten bleiben. Wie lange weiß ich nicht aber wohl sicher ein Jahr oder länger. Den Einfluss von Magnetfeldern die zum Beispiel Floppy-Disketten unbrauchbar machen konnten kann ich auch nicht beurteilen. In einer Metallschatulle transportiert ist alles weniger Magnetfeldern ausgesetzt als einfach im Jackensack. Ich denke dabei daran dass mal jemand die Daten von einer Floppy verlor weil er die Tasche im Eisenbahnwagen gleich neben dem Lüftventilator stehen hatte welcher hinter der Verkleidung gewerkelt hat.
Diese Speicher sind zu formatieren wie die Disketten. Ich denke am Besten in dem Gerät zu dem sie gehören, zum Beispiel in der Digitalkamera. Auch werden bei neu formatieren die Daten gelöscht. Formatieren und einfaches Löschen können auch am Computer erfolgen. Beim Löschen erwarte ich mir keine Probleme dann in der Kamera, beim Formatieren am Computer könnte in seltenen Fällen eine gewisse Unpässlichkeit auf treten. Hat man die Daten vorher an den Computer übertragen kann man wieder frisch fotografieren. Bis zum Überschreiben der Daten durch das neue Foto bleiben aber die alten wie bei der Diskette vorläufig physkalisch erhalten.
Vor allem die USB-Sticks sind sehr beliebt für die Übertragung von Daten zwischen verschiedenen Computern. Das geht schneller als Verbindungskabel verlegen und funktioniert auch wenn man wo Daten mit bringt, zum Beispiel eine vorbereitete Präsentation.
So genannte Webbooks haben solche Speicher gleich anstatt den Laufwerken eingebaut bzw. können damit erweitert werden. Für das Arbeiten unterwegs reicht das mitunter. Bei den großen Notebooks sind noch HDs üblich welche Speicherkapazitäten haben wo solche Stecker unerschwinglich werden.
Wie groß eine Karte sein soll ergibt sich oft vom Gerät für das man sie eigentlich hat. Das ist eher die Digitalkamera als der Computer an den man dann nur die Daten übertragen will. USB-Stecker richten sich danach was man übertragen will. Inzwischen kriegt man sie praktisch nicht mehr unter 4 Gigabyte. Der Preis liegt auch bei 32 Gigabyte zur Zeit bei ca. 1 Euro por Gigabyte.
Auch die Qualität der Karten ist unterschiedlich. Man sollte darauf achten ob sie auch für die Kamera als tauglich ausgewiesen sind. Oder man kauft ein billigeres Angebot ins Blaue weil man dafür auch dann Verwendung hat wenn es sich in der Kamera nicht bewährt. Es gibt auch Kameras welche eine gewisse Speicherkapazität als Höchstgrenze angegeben haben, darüber ist die klaglose Funktion nicht mehr selbstverständlich. Da man sich aber beim Fotografieren eher ungünstigen Bedingungen aus setzt als bei der Arbeit an einem Computer ist vielleicht eine bessere Qualität angebracht wenn der Preisunterschied noch vertretbar ist. Der Hauptunterschied liegt in der Schnelligkeit welche bei Serienfotos sicher eine Rolle spielt. Industriestandart ist auch hier langsamer aber robuster. Und teurer. Zur Zeit üblich sind die SD-Karten bzw. die besseren und schnelleren SDHC-Karten. In tragbaren Geräten prinzipiell die Mini-Version dazu. Ich habe aber einen Adaper wenn eine Minikarte am SD-Schacht des Notebook betreiben will, was vor Allem bei Aufspielen von Daten des Computer für das Tablett oder das Smartphone wichtig ist.
In Zeiten als die Speicherchips noch nicht so ausgereift waren dass sie dann praktisch den Datentransport per "Hosentasche" übernommen haben waren die Floppy Disks das Transportmittel der Wahl. Man suchte aber auch nach anderen Möglichkeiten. Zumal Musik beim besten Willen niemals auf die 2,88 MB Disk passt welche hier das Maximum war. Man muss bedenken dass Musik viel Speicher braucht. Töne und Geräusche und damit auch Musik ist nichts anderes als Stoßwellen (Longitudinalwellen) in einem Medium, zumindest auf der letzten Strecke zu unserem Trommelfell der Luft. Dabei ist das Gehör das Problem. Wir können aus einer Geräuschvielfalt Details erkennen das ist unwahrscheinlich. Grob höre auch ich Instrumente aus einem Orchester heraus, Musiktalente noch viel mehr. Es ist also nicht sinnvoll hier ein 08/15-System anzubieten. Die Schallplatten und später die Tonbänder konnten Musik so speichern dass eben die Magnetisierung beim Band bzw. die Vertiefung in der Plattenrille analog zum Schwingunszustand dessen war was man darbieten wollte. Mit den digitalen Geräten zu denen auch Computer gehören musste man aber die Musik digital einspeichern.
Musik wird auf der Compact Disk CD (im Vergleich zur Langspielplatte) daher in spezieller Weise gespeichtert (es ist eine amplitudenorientierte Verarbeitung schlicht nicht möglich wie beim alten Grammophon):
Musik wird durch Schallwellen übertragen. Diese sind Longitudinalwellen. Es schwingt also nichts quer zur Ausbreitungsrichtung sondern es wird Luft abwechselnd zusammengedrückt und dazwischen entspannt sich das wieder. Das trifft auch auf unser Trommelfell. Ich kann sicher viele Sänger gleich bei ihren ersten Tönen vom Klang her identifizieren. Und ich habe gar kein Musikgehör, da gibt es weit Bessere. Man muss also die Lautsprechermembran so bewegen dass das auch passt. Natürlich ist die Lautsprechermembran amplitudengesteuert. Soll mehr Druck aufgebaut werden kommt mehr Strom auf ihren Steuermagneten, dazwischen weniger. Die Mechanik von Lautsprechern ist bewundernswert. Aber sie funktioniert nicht wenn nicht von irgendwo her die Steuerimpulse kommen. Waren diese bei der Langspielplatte noch auch analog, also mehr für mehr, so sind sie bei der CD digital eingespeichert. Jeder Zustand der Schwingung hat eine Nummer.
In einem Byte kann man 256 Zustände darstellen. Von Minus 128 bis Plus 127 inklusive 0. Für Telefonqualität genügt das. CD-Qualität verlangt eine feinere Abstufung. Nun haben zwei Bytes 16 Bits. Und damit 65536 Möglichkeiten eine Zahl dar zu stellen. Oder anders betrachtet Minus 32768 bis Plus 32767. Es wird also der jeweilige Zustand der Schwingung zwischen dem stärksten Druck der Luft in die Ausbreitungsrichtung des Schalles und dem aufgrund der Schwingung darauf folgenden stärksten Druck des Rückschwingens beim lautesten Ton so eingeteilt dass man 65536 Einheiten gleichmäßig aufteilt. Sprich zu einem bestimmten Zeitpunkt entspricht der Zustand de Fakto einer Zahl dazwischen. Dazu braucht man 2 Bytes. Bei CD-Qualität hat man eine Sample-Rate von ca. 44.100. Das heißt es wird dieser Zustand 44.100 mal pro Sekunde protokolliert. Das sind dann 88.200 Bytes. 176.400 Bytes da wir ja prinzipiell in Stereo spielen und daher alles für den linken und den rechten Lautsprecher brauchen. Da die Musikindustrie sich bei der Entwicklung dieser Technologie an die bereits in Entwicklung befindlichen bzw. teilweise schon eingeführten Computer anlehnte speicherte man Musik in Bytes. Das heißt eine Sekunde Stereomusik braucht auf irgendeinem Medium 176.400 Bytes. Mal 60 in der Minute. Dies ist jetzt mal rechnerisch 10,584.000 Bytes. Merke: 1 Minute Musik braucht ca. 10 Megabytes! Das konnten besonders teure Speichersysteme für mehrere Stücke bereit stellen, die Floppy mit 2,88 Mega war mit ca. 2,5 bis 3 Minuten voll. Und die Meisten hatten gar nicht die 2,88-Laufwerke sonder die 1,44. Und ein Datenverlust ist ja auch nicht erwünscht wenn man Musik gekauft hat was man mit den Magnetscheiben nie ausschließen konnte.
Die Compakt-Disk CD löste dieses Problem. Sie ist prinzipiell wie eine magnetische Diskette auf gebaut. Der Unterschied besteht darin dass sie mittels Laserlicht hergestellt wird und auch mittels Laserlicht ausgelesen. Laser ist ein so dünn gebündeltes Licht dass sehr viel Lichtenergie auf einen dünnen Strahl zusammengefasst wird. Wenn eine Oberfläche diese Lichtfrequenz absorbieren kann dann strahlt sie das Licht nicht zurück. Im Alltag sind wir dauernd damit konfrontiert. Weiße Flächen refektieren das ganze sichtbare Lichtspektrum. Und bleiben eher kühl. Grüne zum Beispiel nehmen das rote Licht auf das dann in dem was wir sehen fehlt; die Fläche erscheint grün. Und wird wärmer als die weiße weil sie ja das rote Licht absorbiert. Und schwarze Flächen reflektieren kein sichtbares Licht und werden bekanntlich am wärmsten. Wenn nun Licht einer bestimmten Farbe auf eine Oberfläche trifft die diese Farbe absorbiert ist uns bei der CD egal dass nichts zurück kommt. Aber sie wird so warm dass hier Material verdampft und eine Vertiefung entsteht (grabbles). Dazwischen bleibt das Material stehen (hughes). Und zwischen den Grabbles und den Hughes gibt es schräge Flächen (henges). So wird eine CD gebrannt. Industriell werden sie zwar gepresst aber mit dem gleichen Ergebnis. Daheim ist der Brenner handlicher, Industrieanlagen stellen die CD viel komplizierter her aber präziser und bei der Stückzahl wesentlich billiger.
Der Laserstrahl der zum Lesen der CD verwendet wird ist nicht so stark. Aber er wird von einer kleinen Laserkanone welche auf dem Lesekopf sitzt auf die CD gerichtet. Diese refektiert ihn. Auf den Hughes. Und in den Grabbles. Nicht auf den Henges, die lenken ihn ab und er beleuchtet irgendwas im Laufwerk nur nicht das neben der Lichtquelle am Lesekopf sitzende Fotometer. Und das wird als gesetztes Bit registriert. So als wäre die Floppy Diskette hier magnetisiert. Da auch CDs formatiert sind und daher die Stelle wo ein Henge sein müsste fest steht kann so ganz präzis ein Datensatz eingelesen werden. 16 Bits sind dabei der Zustand der Schallschwingung für den linken Lautsprecher, die nächsten 16 für den rechten und wieder umgekehrt bis nach ca. 30 bis 40 MB ein durchschnittliches Lied fertig ist. (Bei MacIntoosh Apple ist die Reihenfolg umgekehrt wie bei Windows aber sonst ist es gleich).
Commpact Disks sind so dimensioniert dass man auf ca. 700 MB ca. 70 Minuten Musik speichern kann. Klar ist jetzt auch warum man bei den einzelnen Musikstücken von Tracks spricht. Das sind die bei der Floppy-Disk beschriebenen Datenspuren. Bald wurde diese CD auch für die Datenspeicherung auf Computern entdeckt. Zumal damalige HDs gar nicht viel größer waren. Als Transportmedium für die Auslieferung von Software ist sie auch heute noch an zu treffen. Und für die relativ sichere Datenspeicherung. Bisher sicherte man herabgeladene wichtige Programme auf CD. An sich ist sie aber bereits veraltet.
Es gab viele verschiedene Laufwerktypen (optomagnetische und andere) die "an mir vorüber gingen". Jedes hatte seine Kundschaft welche damit einige Zeit gut gearbeitet hat. Als ich mir erstmals einen Computer mit CD-Laufwerk leisten konnte war dies die Technologie der Zeit, bei meinem ersten CD-Brenner war aber eigentlich der Höhepunkt schon überschritten. Die wirkliche nachfolgende Technologie war die DVD. Heute hat jeder Computer (und da auch schon aus Nostalgie) einen DVD-Brenner eingebaut. Im Prinzip ist das auch eine CD, aber die Daten sitzen dichter und in zwei übereinander liegenden Ebenen. Eine DVD hat standartmäßig 4,7 Gigabytes. Ein Brenner kostet weniger als ein zwanzigstel der weiter oben erwähnten Commodore-Harddisk mit 1 Megabyte bei mehr als doppeltem Durchschnittseinkommen der Käufer inzwischen. Jeder Brenner kann die Medien auch lesen. Und die DVD-Geräte können auch CDs lesen und auch brennen. Wie auch immer, die CD hatte ihre hohe Zeit, besonders in der Musik. Ein einfaches CD-Laufwerk auf jedem Kompaktradio war ein Muss, auch bei den Autoradios, und bei den Anlagen fürs Wohnzimmer sowieso. Beim Autoradio habe ich nie ein CD-Laufwerk besessen, das neue hat 40 Euros gekostet und einen USB-Stecker sowie einen Speicherkartenschacht und kein Laufwerk mehr. Hier liegt auch die Zukunft.
Ein Computer funktioniert immer auf dem System 1/0. Entweder Ja oder Nein. Wahr oder Unwahr. Strom oder kein Strom. Ladung oder nicht Ladung. Loch oder kein Loch (in der Lochkarte). Wie auch immer. Die kleinste Speichereinheit ist ob wo etwas in dem einen oder anderen Zusand ist. Man nennt dies Bit.
Außer durch laut Schreien, Negertrommel und Kurierläufer oder Kurierreiter konnte man eigentlich keine Nachrichten überbringen. Als elektrischer Strom zu Verfügung stand und es auch elektrische Leitungen gab konnte man Nachrichten derart übermitteln dass man mit einem Taster den Stromfluss auf machte und am anderen Ende ein Elektromagnet einen Kipphebel betätigte. An dem fand sich ein Schreibstift und gleichzeitig wurde ein Papierstreifen durch gezogen. Kurz ergab einen Punkt und lang einen Strich. Durch Zuordnung von Buchstaben auf Folgen von Punkten und Strichen kam man zum Morse - Alfabet. Wobei Morse der Name des Erfinders ist. Das ganze bezeichnete man als Telegrafie (Fernzeichnung, Fernschreiber). Später konnte man auch Kastln bauen welche beim Betätigen einer Tastatur den Tasten zu geordnete Signale verschickten und am anderen Ende wurde aufgrund dieser Signale mittels eines Zwischengerätes eine Schreibmaschine betätigt. Der Fernschreiber war sehr lange die wichtigste Nachrichten Übermittlung vor allem für Polizei und auch Presse in Amerika. Auch bei uns ist das noch nicht so lange her.
Es war wichtig die Steuerung des Fernschreibergerätes und auch die Buchstaben zu kodieren. Von Lang-Kurz kam man aber wieder ab. Man bediente sich der Telefonleitungen, auch weil man so logischer weise das Zielgerät gezielt anwählen konnte wie sonst einen Telefonapparat. Also übertrug man Töne. Und entwarf den ASCII -Code (American System Code For Imformation Interchange). Ein Piepsen war dabei ein gesetztes Bit. Mit Bits kann man nur Zahlen zur Basis 2 dar stellen. In der Schule lernen wir erst mal das Dezimalsystem, wo die Zahlen zur Basis 10 stehen. 365 ist 3 mal 10 zum Quadrat plus 6 mal Zehn hoch 1 plus 5 mal 10 hoch 0. Eine Zahl hoch 0 ergibt immer 1. Eine Zahl hoch 1 ist immer sie selbst. Eine Zahl hoch 2 (zum Quadrat) ist sie mit sich selbst multipliziert. Zur 3. das Quadrat nochmal mit der Grundzahl multipliziert. Und so weiter. Im Zehnersystem haben wir dabei 1, 10, 100, 1000 und so weiter. Wir schreiben das so dass die rechteste Ziffer vor dem Komma (Punkt im anglikanischen Raum) hoch 0 ist, die zweite von rechts hoch 2 und daher 10, 20, 30, 40, 50, 60, 70, 80 und 90 bedeutet. Die zweitrechteste 100, 200 und so weiter. So können wir eigentlich alle Zahlen die es gibt schreiben. Rechts vom Komma ist es so dass 1 durch 10 dividiert ist an der ersten Stelle, durch 100 an der zweiten Stelle und so weiter und die Ziffer gibt wieder an wie oft der entsprechende Wert. Man kam historisch auf diese Art weil man Zehn Finger hat und diese waren das erste Hilfsmittel der Menschheit beim Rechnen. Man vergißt sie nicht zu Hause, verlegt sie nicht... Unsere Hände sind unter anderem die erste Rechenmaschine.
Im dualen System geht also alles zur Basis 2. Ein bit gesetzt kann genau zwei Zustände haben. Es kann nicht gesetzt sein und ist dann Null. Oder es ist gesetzt und entspricht 2 hoch der Stelle an der es ist wobei man mit Null zu zählen beginnt. Das erste 2 hoch 0. Also 1. Das zweite 2 hoch 1. Also Null wenn nicht gesetzt und zwei wenn gesetzt. Das Dritte kann 0 sein wenn nicht gesetzt oder 2 hoch 2 wenn gesetzt. Beim 4. 0 oder 8. Und so weiter. Vier Bits können daher Zahlen zwischen 0 und 15 darstellen. In der Weise
0000 = 0
1000 = 1
0100 = 2
1100 = 3
0010 = 4
1010 = 5
0110 = 6
1110 = 7
0001 = 8
1001 = 9
0101 = 10
1101 = 11
0011 = 12
1011 = 13
0111 = 14
1111 = 15
Mit vier Bits kann man also eine Zahl auch zur Basis 16 darstellen, die Hexadezimalzahl. Das ist ein gutes Hilfsmittel welches zum Beispiel auch für Farbkodierungen verwendet wird. Bei den Monitoren und Druckern haben wir besprochen dass jede Regenbogenfarebe eine Instensitätsangabe von 0 bis 255 hat. 255 sind acht bits gesetzt. (Ich schreibe bit klein weil bei Angaben meist Bits klein geschrieben werden und Bytes groß. 80 KB wären also 80 x 1024 Bytes, 80 Kb wären 80 x 1024 Bits, also 10 KB.) Dazu musste man über der Ziffer Neun eine neue Möglichkeit erfinden. Man bezeichnet die nächsten Stellen mit den ersten Buchstaben des Alfabets. Also 1 2 3 4 5 6 7 8 9 A B C D E F. 3C würde also bedeuten 3 mal 16 plus 12 also 60. C3 bedetuet 12 x 16 plus 3, also 195. Mit acht bits zusammengefasst kommt man zum Byte. Eine Zahl mit 256 Möglichkeiten, 0 bis 255. In zwei Bytes kann man daher darstellen das was im höherwertigen (High Byte) steht mal 256 plus den Inhalt des zweiten Bytes (Low Byte).
Kehren wir aber wieder an den Anfang zurück. Die Amerikaner entwarfen also einen für das ganze Land gültigen Fernschreibercode. Der ist eigentlich heute noch für die kompliziertesten Computersysteme gültig und Welt weit! Man überlegte was man einem Fernschreiber (empfänger) für Signale schicken muss damit dieser jeden Text zuverlässig darstellen kann. Und war dabei mit den damals auch in Amerika noch etwas unzuverlässigen Telefonleitungen konfrontiert. Man kam auf folgendes: Es gab Zeichen für die Steuerung des Schreibers. Heute sind sie noch in einfachen Textdateien für Zeilenschaltung usw. in Gebrauch. Nur einige die ich zufällig noch weiß: 7 (11100000) betätigt die Klingel am Fernschreiber. Damit wurde jedes Fernschreiben abgeschlossen. Der Redakteur der Times ging in den Fernschreiberraum nachsehen wenn es gerattert hatte und dann geläutet. Einzelne Anschläge der Typenhebel kamen immer siehe oben instabile Telefonleitung. 9 war der Tabulator (und ist es noch). 10 Zeilenvorschub (LF = Line Feed). 11 und 12 Seitenvorschub (PF = Paperfeed), 13 der Wagenrücklauf = Rückkehr an den Anfang der Zeile (CR = Carriage Return). Die Entertaste, Eingabetaste, Returntaste, also die große rechts an der Tastatur ist mit dem Code 13 belegt, heute noch. Weil sie von den ersten elektrischen Schreibmaschinen stammt wo man sie betätigte wenn man in die nächste Zeile wollte. 32 ist der Code für das Leerzeichen. 48 für die Type welche die Ziffer 0 darstellt.
Schauen wir uns 32 dual = binär = digital = im Zweiersystem an:
00000100
Wenn ich also die kleinste Stelle hier links schreibe dann bedeuten die Stellen ja der Reihe nach 1, 2, 4, 8, 16, 32, 64 und 128.
Schauen wir uns 48 an:
Es muss das 32er Bit gesetzt sein da 48 größer ist als 32 aber kleiner als 64. Dann bleibt 16 als Rest. Also ist auch das 16er Bit gesetzt. Es bleibt kein Rest sonst müsste man auch den so aufdröseln.
00001100
10001100 oder hexadezimal 31 (3 mal 16 = 48 aus der zweiten Hälfte des Byte = High Nibble und 1 aus der ersen Hälfte des Bytes = Low Nibble) bedeutet dann 1. Das gilt bis 9.
Es handelt sich hier nicht um die Zahlen selbst sondern um die Auswahl des Typenhebels am Fernschreiber, um den "Buchstaben" für die Ziffer!
Es kommen natürlich auch alle Satzzeichen.
@, die Klammerraffe, hat den Code 64. Hier handelt es sich um ein ganz interessantes Zeichen. Man brauchte ein Zeichen das im Buchstaben- und Satzzeichensatz nicht vor kam. Und zwar weil man bei den oben erwähnten schlechten Telefonleitungen das eigentliche Fernschreiben klammern musste. Also einige Raphen vor und einige nach dem Schreiben. Nach dem erwähnten Klingelton konnte man so von hinten beginnend auf dem Fernschreiben die letzte Nachricht erkennen. Mit einem Affen hatte das Zeichen also nichts zu tun, obwohl auch die Amerikaner heute Ape dazu sagen.
0000010
Jetzt wird es interessant. Der Buchstabe A hat den Code 65, B den Code 66, C hat 67 und so weiter.
1000010 65 A
0100010 66 B
1100010 67 C
Die Kleinbuchstaben haben um genau 32 höhere Codes:
1000110 97 a
0100110 98 b
1100110 99 c
Daraus ergibt sich dass man mit logischen Operationen (deren Erklärung hier zu weit führt) gezielt das bit für 32 jedenfalls setzen kann und damit alles in Kleinbuchstaben umwandeln. Oder gerade dieses bit gezielt löschen kann und damit alles in Großbuchstaben umwandeln.
Da wir 26 Buchstaben haben kann man also von 97 bis 118 alles unter bringen; die deutschen Umlaute kannten die Amerikaner schlicht nicht. Da man mit 7 bits Zahlen von 0 bis 127 darstellen kann hatte daher ein Byte eben 7 bits. Byte ist irgendeine Abkürzung aus den Anfängen der EDV kann aber auch Schlag heißen. Es wird daher auch für Anschlag einer Schreibmaschine bzw. Buchstabe im Sinne der EDV verwendet, passt ja auch siehe oben.
Auf Grund der schlechten Telefonleitungen (mit denen das heutige Internet nicht so schön funktionieren würde) musste man aber eine Kontrolle einführen. Es kam immer wieder vor dass auf der Übertragung ein bit verlorenging oder seltener sogar eins dazu kam. Bei Polizei und auch Presse sollten aber zum Beispiel Namen von lebenden Personen und auch andere Worte verlässlich zuordenbar sein. Daher führte man eine Kontrollbit ein, das Parity Bit. Es war gesetzt wenn alle gesetzten Bits des restlichen Byte eine gerade Anzahl hatten (parity even) und nicht wenn diese Zahl ungerade war (parity odd). Obige Buchstabenbeispiele nochmals mit Parity-bit berücksichtigt:
1000011 65 A
0100011 66 B
1100010 67 C
Die Kleinbuchstaben haben um genau 32 höhere Codes:
1000110 97 a
0100110 98 b
1100111 99 c
und damit ist erklärt warum ein Byte 8 bits hat! Nach Erneuerung der Telefonnetze zuletzt auch in Amerika (die hatten das modernste als es gebaut wurde, andere Staaten waren später dran und bauten jeweils das Neueste, dann haben daher die Amerikaner weil sie mal die ersten waren nun als Letzte wiederum modernisiert) wurde das Parity-bit unnötig. Gewisse andere Verwendungen waren auch nur kurzfristig. Es ist aber so: wenn man nach 7 bits noch eines hat das ungesetzt den bisherigen Zeichensatz ermöglicht hat man wenn man es setzt wiederum 128 Möglichkeiten zur Verfügung. Man nutzte das indem man zum Beispiel "Buchstabemuster" entwarf wo mitten im Buchstabenfeld Punkte untereinander gesetzt sind und so ein senkrechter Strich in einem Buchstabenfeld erscheint. Oder in der Mitte waagrecht. Oder beide so dass ein Kreuz entstand. Mit senkrechten mit Abzweigung in der Mitte nach rechts oder links und waagrechte mit Abzweigungen nach oben oder unten. Und vier welche die Ecken dar stellten. Das war sehr wichtig als Bildschirmdarstellung und Druck noch keine punktorientierte Grafik waren sondern die weiter oben bei Monitor erwähnten Buchstabenfelder von 8 mal 8 Punkten hatten. Man konnte so Teile der Bildschirmausgabe (und auch Druckerausgabe) einkasteln. Was für Formulare in Geschäften etc. sehr hilfreich war.
Was uns dabei heute noch nützt ist die Integration der vorher in Amerika nicht beachteten Sonderzeichen wie deutsche Umlaute, ß und andere. Die haben ihre Codenummer jeden Falls über 127! Und genau Darauf habe ich mich ganz am Anfang dieser Seite bezogen. Wenn der Code mit dem ich schreibe mit dem des Internetbesuchers der diese Seite liest zusammen passt dann kann er den Text problemlos lesen. Sonst erscheinen immer wieder komische Zeichen. Die sind nicht komisch, sie stellen nur etwas Anderes dar als sie sollten. Der Internetbrowser ist daher eines der Programme wo man den Zeichensatz relativ einfach umstellen kann, das ist auch nötig. Ich halte es daher für höflich wenn auch lästig irgendwo auf den von mir verwendeten Zeichensatz hin zu weisen. Der bei uns meist verwendete Zeichensatz ist ISO-8859-1 oder mitunter auch ISO-8859-15. Die beiden unterscheiden sich in einigen Details, der 15er soll das Euro-Zeichen richtig darstellen können. Es gibt auch Bezeichnungen wie Windows Mitteleuropa oder Windows Westeuropa. Oder Unicode. Der soll der Allgemeingültige sein. Warum ich dann gerade mit dem Unicode Schwierigkeiten habe weiß ich allerdings nicht...
Natürlich kann der Inhalt eines Bytes auch Teil einer Zahl sein. Bei Textprogrammen weniger, Text stellt man ja buchstabenweise dar. Und daher Zahlen ziffernweise. Typische Rechenprogramme wären da aber viel zu umständlich. Sie speichern daher direkt die Zahlen ein. Was ja auch wenn man den Aufbau des Bytes nun kennt logisch ist. Es gibt auch die Fießkommadarstellung. Die beginnt mit dem Hinweis wo der Kommastrich ist und dann kommt die Zahl ohne Kommastrich. Mathematiker sprechen von Exponentialdarstellung. Die heutigen CPUs können solche Zahlen direkt verarbeiten. Die Coprozessoren sowieso. Dabei muss aber noch berücksichtigt werden wie groß die Zahl ist. Und da kommt es zu Einteilungen des Speichers wo sie abgelegt ist. In einem Byte kennt man Low Nibble und High Nibble. Der Inhalt des High Nibble ist mit 16 zu multiplizieren und der Inhalt des Low Nibble dazuzuzählen. Es kann aber auch sein dass eine Zahl zwei Bytes beansprucht weil sie größer ist als 255. Dann spricht man von High Byte und Low Byte. Das High Byte ist mit 256 zu multiplizieren und dann mit dem Low Byte zusammen zu zählen. Ein so ein Doppelbyte nennen die Informatiker Word. Und dann gibt es noch Doubleword mit High Word und Low Word wobei man das High Word mit 65536 multiplizieren muss und analog weiter das Quadword...
Es gibt aber auch negative Zahlen. Wie bringt man nun das Minus unter? Dazu nur eine kurze Erklärung im Bereich eines Bytes. Das höchste Bit wird dabei als Minus-Zeichen verwendet. Bei 0 bis 127 spielt sich ja alles ohne das achte Bit ab. Zahlen darüber sind von 256 ab zu ziehen und mit dem Minus zu versehen. 255 ist also -1. Das ist erst verwirrend. Aber setz den Fall du willst von 0 1 subtrahieren. Beachte: im Dezimalsystem ist 10 - 1 = 9. Also bei Subtraktion von 0 kommt die höchste Ziffer an dessen Stelle. Diese ist im Zweiersystem 1. 1000 - 1 = 999. Beachte ich dabei die vierte Stelle nicht so sieht das aus wie 0 - 1 = 999. Führen wir nun analog dazu die Subtraktion 0 - 1 durch:
0 | 0 | 0 | 0 | 0 | 0 | 0 | und 0 am achten Byte | |
- | 1 | |||||||
1 | bleibt 1 | |||||||
1 | bleibt 1 | |||||||
1 | bleibt 1 | |||||||
1 | bleibt 1 | |||||||
1 | bleibt 1 | |||||||
1 | bleibt 1 | |||||||
1 | bleibt 1 | |||||||
1 bleibt 1 | ||||||||
Haben wir uns damit beschäftigt dass die eingespeicherte Zahl eine ist mit der man rechnet, so gibt es auch Zahlen welche eine Adresse in einem Speicher an sprechen. Zum Beispiel im RAM. Wenn eine CPU zum Beispiel eine Zahl in ein Register laden soll so muss sie den Ladebefehl vom RAM einlesen auf grund dessen sie das dann macht. Und anschließend steht im RAM eine Zahl welche nun den Wert hat dass die CPU nun weiß wo im RAM die Zahl steht MIT DER sie das Register laden soll. Oder wohin ein Registerinhalt zu schreiben ist. Da diese Register Anfangs 16 bits fassten ist klar warum die frühen PCs so lange mit Speicher in der Größe von bis zu 64 KB funktionierten (Commodore 64 und so). Dazu noch mals zur Zahlenlogik des dualen Systems. Wie sich ein Byte mit Zahlen belegen kann haben wir oben besprochen. Bei 16 bits haben wir ein High Bytte und ein Low Byte. Beide funktionieren gleich. Das High Byte ist aber mit 256 zu multiplizieren. Und dann der Wert des Low Byte hinzu zu zählen.
Nun hat wie wir gesehen haben jedes bit den doppleten Wert des nächst niedrigen. 1, 2, 4, 8, 32, 64, 128 in einem Byte. Und wenn bis dahin alle Bits gesetzt sind dann entspricht das dem doppelten Wert des höchsten bits minus 1 also 128 x 2 - 1 = 255 in einem Byte. Berücksichtigt man dass das High Byte daran anschließt so hat dort für das niedrigste Bit den Wert 256. Dann folgt 512. Und diese 10 bits zusammenezählt ergeben 1023. Darum bezeichnet man 1024 als Kilobyte! Merke: Kilo heißt eigentlich tausend, aber aus dem oben Gesagten heraus 1024 in der EDV. Auf 512 folgt dann das bit mit dem Wert 1024 (auch ein KB). Dann 2048 (auch 2KB), 4096 (auch 4KB), 8192(auch 8KB), 16384 (auch 16KB) und 32768 (auch 32KB). Ergibt alles zusammen gezählt 65535. Das erste Bit des dritten Bytes (meist das erte des High Word) wäre dann 64KB wert wenn es gesetzt ist.
Dazu nun nur noch so viel:
1 Kilobyte KB hat 1024 Bytes.
1 Megabyte MB hat 1024 Kilobytes KB.
1 Gigabyte GB hat 1024 Megabytes MB.
1 Terabyte TB hat 1024 Gigabytes GB.
Natürlich kann man eine Speicherstelle nur ansprechen wenn sie physikalisch auch existiert. Daher ist die Speicherkapazität verschiedener Computerkomponenten auch eine wichtige Entscheidungshilfe beim Kauf einer Anlage.
So viel überblicksmäßig zu den Hardwareteilen einer EDV-Anlage, vereinfacht als Computer bezeichnet. Das war eine Menge Holz und ist trotzdem denkbar unvollständig. Es wird aber wenig Sinn haben hier mehr in die Tiefe zu gehen wenn Viele schon das bisherige nicht oder ungenügend wussten. Es sollte die Vorstufe sein bevor man die Funktionen von Betriebssystemen und Programmen wieder so einfach wie möglich erklärt. Am Ende sollte man die einfachsten Funktionen der Büroprogramme, der Grafikprogrammen und Ähnliches bedienen können. Und nicht den Abstand von Text rein über Leerzeilen einstellen, was natürlich wenn man es nicht besser weiß auch eine Möglichkeit ist.
Damit die einzelne HTML-Datei, das was hier auf deinen Computer geladen wurde damit du es auch lesen kannst, nicht zu groß wird, hier der Link wo es weiter geht:
World4You Internet Services GmbH - Ihr Hostingprovider.at