Glossar Labor-EDV


Aliasing
Frequenzen, die über der halben Samplingrate ( analoge - digitale Daten) eines Datenerfassungssystems liegen, täuschen eine niedrigere Frequenz vor und können daher mit Nutzsignalen verwechselt werden. Durch Tiefpassfilter werden diese Frequenzen vor der Analog-Digital-Wandlung entfernt ("Anti-Aliasing"). Bei gängigen Laboranwendungen häufig die Ursache von langsam auf und ab driftenden Signalen aufgrund von Störeinstreuungen durch das Stromnetz (50 Hz).

Siehe auch Messdatenerfassung im Labor

Analog/Digitalwandler
siehe analoge-digitale Daten

Analoge - digitale Daten
Fast alle physikalisch-chemischen Messdaten sind prinzipiell analog, können also jeden beliebigen Wert innerhalb bestimmter Grenzen annehmen. Beispiele dafür sind Lichtabsorption im Fotometer, Brechungsindex, elektrische Leitfähigkeit sowie die von Analysengeräten meist gelieferten Spannungs- oder Stromwerte.

Heutige Computer hingegen verarbeiten ausschließlich digitale Daten (aus den Zuständen 0 und 1 zusammengesetzte Zahlenwerte) und können daher nur bestimmte (diskrete) Werte annehmen.
Aus diesem Grund ist bei jeder EDV-gestützten Aufnahme von Analysendaten eine Wandlung der analogen in digitale Daten vorzunehmen. Die Qualität dieser A/D-Wandlung ist ein entscheidendes Kriterium für Genauigkeit und Verlässlichkeit der von Rechner gelieferten Messwerte und lässt sich unter anderem durch Abtast- oder Samplingrate (Anzahl der Messungen pro Sekunde), Auflösung (in Bit) und Genauigkeit angeben. Je höher diese Werte liegen, desto genauer entsprechen im allgemeinen die Messungen der Realität, umso höher wird allerdings auch der Speicherbedarf.

Siehe auch Messdatenerfassung im Labor

Analog-Multiplexer
Elektronische Baugruppe, die einen von mehreren Analogeingängen zur weiteren Messung durchschaltet. Auf diese Weise können die Signale an vielen Kanäle hintereinander mit geringem Hardwareaufwand erfasst werden.

Siehe auch Messdatenerfassung im Labor

Analyse- und Designtechniken
Verschiedene Verfahren des Software-Engineering, die der eigentlichen Programmierung eines Softwareproduktes (z.B. eines LIMS) vorangehen und eine genaue Problem- und Systemanalyse sowie Vorschläge zur Umsetzung in einem automatisierten System (Personal Computer, aber auch z.B. einer Prozesssteuerung) zum Inhalt haben. Zur übersichtlicheren Darstellung werden häufig grafische Hilfsmittel verwendet, so z.B. Datenflussdiagramme oder Entity-Relationship-Modelle.

Siehe auch Aktive Benutzerbeteiligung ...

AQS
Analytische Qualitätssicherung: Nachdem die Qualitätssicherung schon seit langem in der Produktion etabliert ist, war es naheliegend, ähnliche Prinzipien auch auf Dienstleistungen bzw. immaterielle Produkte auszudehnen, so z.B. die Messtechnik im allgemeinen und die Analytik im speziellen. Die AQS begleitet üblicherweise ein Analysenverfahren (Methode) von der Entwicklung über den testweisen Verwendung bis zum Routineeinsatz. Am häufigsten werden statistische Verfahren (z.B. Regressionsanalyse) und grafische Darstellungen (z.B. Regelkarten) eingesetzt, um die Qualitätskriterien (z.B. Selektivität, Genauigkeit, Erfassungsgrenzen) zu ermitteln und später zu überwachen.

Siehe auch Qualitätssicherung in der Analytik

Asymmetrische Eingänge
siehe symmetrische Eingänge

Asynchrone Übertragung
siehe serielle Schnittstelle

Benutzeroberfläche
Betriebsprogramm ( Software), das in möglichst übersichtlicher und komfortabler Weise dem Anwender den Zugang zu den eigentlich relevanten Programmodulen ermöglicht. Grafische Benutzeroberflächen stellen eine besonders komfortable und leicht erlernbare Lösung in diesem Sinn dar und sind bei den meisten modernen Betriebssystemen (Microsoft Windows-Familie, OS/2, UNIX mit X-Windows oder Motif etc.) verfügbar.

Betriebssysteme
Software, die dem eigentlichen Anwendungsprogramm die individuellen Möglichkeiten des Computers (Speicherung, Bildschirmdarstellung, Druckerausgabe etc.) zur Verfügung stellt. Das Betriebssystem wird immer vor den eigentlichen Anwendungen geladen. Bei Personal Computern sind Microsoft Windows (Versionen 3.11, 95, 98 und NT) sowie - seltener - OS/2 und UNIX in Verwendung, während Workstations nahezu ausschließlich unter UNIX arbeiten.

Client-Server-Architektur
Verteilung der Aufgaben zwischen mehreren Rechnern (üblicherweise im Netzwerk). Der Server stellt bestimmte Leistungen auf Anforderung der Clients zur Verfügung und erledigt sie zentral. Die wichtigste Anwendung ist die zentrale Nutzung bestimmter Geräte (große Festplatte, Drucker, Datenbanken etc.), womit die betreffenden Geräte von jedem Rechner aus verwendet werden können, ohne sie für jeden Computer anzuschaffen.

Datenbanken
System zur Verwaltung umfangreicher Datenbestände, die meist in Form von Tabellen (z.B. Adresslisten) angeordnet sind. Die wichtigsten Kriterien einer Datenbank sind Datensicherheit, Abrufgeschwindigkeit sowie Flexibilität. Am gängigsten sind derzeit relationale Datenbanken, die mit der genormten Abfragesprache SQL ausgestattet sind.

Siehe auch Datenbank-Einsatz im Labor

Datensatz:
Datenbank-gemäße Beschreibung eines einzelnen Gegenstandes bzw. Person (z.B. Kunde mit Angabe der Felder Namen, Adresse, Telefonnummer) etc.

Siehe auch Datenbank-Einsatz im Labor

Datensicherheit
Maßnahmen, um die gespeicherten Daten gegen zufälligen Verlust wie auch gegen Missbrauch (Löschung, Veränderung oder unberechtiges Lesen) zu schützen. Missbrauch wird im allgemeinen durch Zugangsbeschränkungen und Passwortvergabe zu verhindern versucht, während zufälliger Verlust meist durch umfangreiche Softwareprüfung, aber auch durch unterbrechungsfreie Stromversorgungen, Festplatten-Spiegelung (doppelte Speicherung aller Daten) etc. bekämpft wird. Absolute Datensicherheit kann generell in keinem der beiden Bereiche erzielt werden!

Siehe auch Datenbank-Einsatz im Labor

DNS
Domain Name Server = Rechner, der durch entsprechende Software dafür ausgerüstet ist, unbekannte Rechnernamen (z.B. "www.ats-vienna.com") in IP-Adressen zu übersetzen, damit eine Verbindung mit dem betreffenden Rechner hergestellt werden kann. Wenn der DNS den Namen nicht selbst kennt, leitet er die Frage an einen oder mehrere andere DNS weiter. Domain Name Server werden in allen größeren Netzwerken benötigt, insbesondere im Internet.

Entity-Relationship-Modellierung
grafisches, übersichtliches Verfahren, um die logische Zusammengehörigkeit von Objekten bzw. Daten zu erkennen, was für die Entwicklung einer Datenbankanwendung erforderlich ist. Insbesondere ist das korrekte Erkennen und Beschreiben von Beziehungen zwischen Objektklassen (z.B. zwischen Kundenadresse und dem einzelnen Auftrag) von Bedeutung.

Siehe auch Datenbank-Einsatz im Labor

Felder:
bei Datenbanken: einzelne, inhaltlich bestimmte Teile des Datensatzes, die bestimmte Attribute (Teilinformationen) beschreiben, z.B. "Name", "Adresse", "Telefonnummer" etc.

Siehe auch Datenbank-Einsatz im Labor

GLP
Good Laboratory Practice = Gute Laborpraxis. GLP ist vor allem als Qualitätssicherungs-Richtlinien für die Unternehmensorganisation zu verstehen. In Hinblick auf die Datenverarbeitung besonders Vorschriften und Empfehlungen, um alle im Zuge der Analysentätigkeit getroffenen Entscheidungen und entstandenen Daten zu sichern bzw. zu dokumentieren. Zunächst von der US-Behörde FDA ins Leben gerufen, erhält GLP durch OECD-Richtlinien und nationale Regelungen immer mehr auch in Europa Gesetzescharakter.

GUI
Graphical User Interface = Grafische Benutzeroberfläche

Hardware
Bezeichnung für alle materiellen Bestandteile von Computersystemen, so zum Beispiel Recheneinheit, Monitor, Drucker etc.

Internet
Weltumspannendes Netzwerk, zunächst vom US-Verteidigungsministerium zur Vernetzung mit Universitäten aufgebaut, heute jedoch für jedermann verfügbar. Die wichtigsten Anwendungen im geschäftlichen Bereich sind das WWW (Word wide web, insbesondere das Abrufen von Internet-Seiten), elektronische Post (e-mail) sowie der Dateitransfer über FTP.

Intranet
Moderne Bezeichung für ein nach außen abgeschlossenes Netzwerk mit ähnlichen Anwendungen wie im Internet (z.B. firmenintern).

IP-Adresse
Zahlenkombination, die aus vier Bytes (8 bit, also Dezimalzahlen von 0 bis 255), mit einem Punkt getrennt, bestehen und jeden Computer im Internet eindeutig identifzieren (z.B. "128.195.200.13"). Die Zuordnung von Namen (z.B. "www.ats-vienna.com") zu einer IP-Adresse erfolgt durch DNS (Domain Name Server). Bei fest mit dem Internet verbundenen Rechnern ist die IP-Adresse im allgemeinen unveränderlich, während beim Einwahl über MODEM zum Internet-Provider für jede Sitzung eine aus einer Liste verfügbarer IP-Adressen vergeben wird.

LAN
Local Area Network, siehe Netzwerk

Lifecycle-Modell
Empfehlung für die Abfolge der einzelnen Projektphasen bei der Software-Entwicklung. Angelehnt an die "Lebenszyklus-Modelle" in der Betriebswirtschaftstheorie (Produktion, Marketing etc.) werden in etwa die folgenden Phasen unterschieden, die aneinander gereiht werden: (System-) Analyse, Design, Implementierung, Einführung, Dokumentation, Wartung. Manche moderne Methoden versuchen die Phasen teilweise überlappend durchzuführen, um schnellere Entwicklung und bessere Einbindung des zukünftigen Anwenders zu erreichen. Auf das Lifecycle-Modell wird übrigens in verschiedenen Qualitätssicherungs-Richtlinien (z.B. TickIT, GAMP) Bezug genommen, ohne es jedoch als verbindlich zu erklären.

LIMS
Laboratory Information Management System = Laborinformationssystem. Darunter werden meist Softwareprodukte verstanden, die zur unternehmensweiten Verwaltung der Analysendaten und anderen im Labor entstehenden Informationen (z.B. Chemikalien-Lagerbestand, Fakturierung von Analysenaufträgen, Standardarbeitsanweisungen etc.) dienen. Da diese Aufgaben bereits stark in die Unternehmensorganisation hineinreichen, sind vorgefertigte Lösungen meist problematisch. Dies führt dazu, dass die mehr oder weniger individuelle Erstellung von LIMS-Produkten relativ lange dauert und relativ hohe Kosten verursacht.

Siehe auch Laborinformationssysteme (LIMS)

Locking
(auch: "Sperrmechanismen") - Sicherheitsmaßnahmen eines Datenbanksystems (oder Betriebssystems), um bei simultaner Arbeit mehrerer Benutzer fehlerhafte Daten zu vermeiden, die durch nahezu gleichzeitigen Zugriff auf denselben Datensatz entstehen können.

Siehe auch Datenbank-Einsatz im Labor

Messdatenerfassung
Aufnahme der Messdaten und Überführung in ein vom Rechner verwendbares Format ( analoge - digitale Daten). Die Datenerfassung nimmt noch keine Auswertung oder Veränderung vor, verlässt also nicht die Ebene der Rohdaten.

Siehe auch Messdatenerfassung im Labor

Messfehler
Verfälschungen des Messsignals im Zuge der Datenerfassung. Die Fehler (statistisch oder systematisch) können bereits bei der Datenentstehung, aber auch erst bei der Übertragung (insb. Störeinstreuungen in Verbindungskabel) oder der Analog/Digital-Wandlung auftreten.

Siehe auch Datenbank-Einsatz im Labor

Multitasking
(Quasi-) gleichzeitiges Ausführen mehrerer Programme auf einem Rechner. Alle derzeit üblichen Betriebssysteme (Microsoft Windows Familie, OS/2, UNIX etc.) sind multitaskingfähig, wobei jedoch ein Unterschied zwischen kooperativen (Windows 3.11, teilweise Windows 95 und 98) und präemptiven Multitasking (Windows NT, UNIX) besteht. Bei kooperativem M. wird erwartet, dass jedes Programm sich "kooperativ" verhält, also nicht unnötig viel Rechenzeit an sich reißt, während bei präemptivem M. das Betriebssystem selbst für eine "gerechte" Verteilung sorgt.

Multiuser-Systeme
Betriebssysteme bzw. Dienstprogramme (z.B. Datenbank), die ein gleichzeitiges Arbeiten von mehreren Personen erlauben. Während dies früher wegen der teueren Rechner notwendig war, liegt die Bedeutung von Multiuser-Systemen besonders in der zentralen Verwaltung und einfacheren Fernwartung. Unter den gängigeren Betriebssystemen ist nur UNIX multiuserfähig (eine Multiuser-Version von Windows NT soll demnächst verfügbar sein).

Netzwerk
Verbindung zwischen mehreren unabhängigen Rechnern zum Datenaustausch. Die wichtigsten Formen sind LANs (Local Area Network), z.B. innerhalb eines Unternehmens oder Abteilungen sowie WAN (Wide Area Network), die oft global bestehen. Die bedeutendsten Vorteile gegenüber unvernetzten Systemen sind zentrale Speicherung von Daten ( Server), gemeinsame Benützung von Druckern und anderen Geräten sowie elektronische Kommunikation (electronic mail). Verbreitete Netzwerksysteme sind vor allem Ethernet und IBM Token Ring, die meistverwendeten Softwareprodukte zum Netzwerkbetrieb sind die Windows-Netzwerkkomponenten, Novell NetWare sowie TCP/IP (letzteres vor allem für Internet und allgemein bei UNIX-Rechnern).

ODBC
Open Database Connectivity = Softwareschnittstelle (von Microsoft definiert) zwischen Anwendungsprogrammen und beliebigen Datenbanksystemen. Der große Vorteil von ODBC liegt darin, dass die Anwendungsprogramme unabhängig vom verwendeten Datenbanksystem-Hersteller gehalten werden können und daher die Anpassungsarbeit bei der Installation entfällt.

Personal Computer:
Häufige Bezeichnung für die preisgünstigsten und kleinsten kommerziell nutzbaren Rechnersysteme. Die am weitesten verbreiteten Personal Computer (PCs) sind IBM-kompatible Geräte mit den Prozessoren 80486, Pentium, Pentium II der Fa. INTEL sowie kompatible Produkte von anderen Chipherstellern. Vorteile von Personal Computern gegenüber größeren Systemen sind die ausgesprochen geringen Anschaffungskosten sowie das enorme Softwareangebot aufgrund der weiten Verbreitung.

Regelkarte
(oft auch als Kontrollkarte bezeichnete) einfache, grafische Darstellung der Entwicklung bestimmter Qualitätsparameter. Zunächst wurden Regelkarten in Qualitätskontrolle von Produktionsbetrieben (z.B. Füllmenge von Konservendosen) eingesetzt, um zufällige Streuungen von Produktionsfehlern zu unterscheiden und bei Bedarf rechtzeitig eingreifen zu können. In letzter Zeit werden Regelkarten (in verschiedenen Variationen) auch in der Analytischen Qualitätssicherung ( AQS) verwendet, indem die Analyse / Messung gewissermaßen als Produktionsprozess angesehen wird, deren Qualität zu überwachen ist.

Siehe auch Qualitätssicherung in der Analytik

Regressionsanalyse
Mathematisch-statistisches Verfahren, um eine bestimmte Funktion durch geeignete Wahl von Parametern (z.B. Geradensteigung) optimal an mehrere Messpunkte anzupassen. Die wichtigste Anwendung im Labor ist die Berechnung einer Kalibrationsfunktion durch mehrere Kalibrationspunkte (Messungen von Standards bekannter Konzentration bzw. anderen Parametern).

Siehe auch Qualitätssicherung in der Analytik

Relation
Im Zusammenhang mit Datenbanken wird unter einer Relation eine ungeordnete Menge von n-Tupeln mit bestimmten Voraussetzungen verstanden. Diese etwas abschreckende Beschreibung lässt sich grob ganz einfach mit einer Tabelle vergleichen, deren Spalten bestimmte Attribute (z.B. Name, Adresse, Telefonnummer etc.) darstellen und in deren Zeilen die einzelnen Objekte (z.B. Personen) stehen. Die Relationentheorie hat zum Inhalt, auf welche Weise man Datenbestände (z.B. die gesamte Verwaltung eines Labors) in Form derartiger Tabellen führen kann, ohne bestimmte Probleme zuzulassen (z.B. doppelte Speicherung derselben Daten). Die meisten gängigen Datenbanken stützen sich auf das Relationenmodell und werden daher als relationale Datenbanken bezeichnet.

Siehe auch Datenbank-Einsatz im Labor

Relationale Datenbank
derzeit für kleinere und mittlere Datenbankanwendung das am weitesten verbreitete Modell, da Änderungen sehr einfach und flexibel durchgeführt werden können. Der Preis für die hohe Flexibilität liegt in der eher geringen Zugriffsgeschwindigkeit, die oft mühsame Optimierung der Zugriffsmethoden ("Tuning") für den Datenbankverwalter erfordert.

Siehe auch Datenbank-Einsatz im Labor

RS-232, RS-422, RS-485
siehe serielle Schnittstelle

Serielle Schnittstelle
häufigstes (digitales) Übertragungsverfahren zwischen "intelligenten" Laborgeräten und Computer. In der elektrischen Ausführung (Spannungsbereich, asymmetrisch oder symmetrische Signalleitungen etc.) werden RS-232, RS-422 und RS-485 unterschieden. Am häufigsten wird die RS-232 verwendet, die allerdings - im Gegensatz zur RS-485 - nur zur Verbindung von jeweils 2 Geräten geeignet ist. Um eine korrekte Übertragung zu ermöglichen, müssen die Betriebsparameter Baudrate, Anzahl der Daten- und Stopbits und die Parität auf beiden Seiten identisch konfiguriert werden.

Siehe auch Bits in Serie: Die RS-232

Software
Immaterielle Teile von Computersystemen. Im engeren Sinn werden darunter ausschließlich die eingesetzten Programme verstanden.

Software-Engineering
Sammlung von Verfahren, die Entwicklung von Software auf lange Sicht möglichst kosten- und zeitsparend zu gestalten. Die Versuchung ist groß, (zumindest kleinere) Softwareprojekte aufs Geratewohl anzugehen, was schnell zu ersten Ergebnissen führt, dann aber immer aufwendiger und unübersichtlicher wird und meist überhaupt nicht mehr zu warten ist. Wichtige Teilbereiche des Software-Engineering sind Analyse- und Designtechniken (Erkennung und Analyse der Problemstellung, Umsetzung in ein Programmdesign), Software-Metriken (Schätzung von Zeit- und Kostenaufwand vor Projektbeginn) sowie Organisationsempfehlungen für Teams.

Siehe auch Aktive Benutzerbeteiligung ...

SQL
Structured Query Language - Datenbankabfragesprache, besonders bei relationalen Datenbanken weit verbreitet. Durch ihre hohe Flexibilität können auch komplexe Fragestellungen in wenigen Zeilen formuliert werden. SQL ist bei nahezu allen relationalen Datenbanksystemen verfügbar und wird deshalb als quasi-Standard akzeptiert.

Siehe auch Datenbank-Einsatz im Labor

Steuerung und Regelung
Im Gegensatz zur Messwerterfassung (Messung von Systemparametern) werden hier die Wirkungen auf das System betrachtet (z.B. Vorgabe der GC-Temperatur). In der deutschsprachigen Literatur wird oft zwischen Steuerung als von Systemparametern unabhängiges Verhalten und von Regelung (die aktuelle Systemparameter einbezieht) unterschieden. Das automatische Abschalten der Geräte um 18.00 wäre demnach als Steuerung zu verstehen, das Einschalten der Heizung durch einen Thermostaten, sobald die Raumtemperatur unter 20 °C sinkt, jedoch als Regelung. Im Englischen ist diese Unterscheidung unbekannt (nur "control"), was kein großer Verlust ist, da sich Steuerung und Regelung ohnehin nicht immer problemlos auseinanderhalten lassen.

Symmetrische Eingänge
zwei identische Eingänge, deren Spannungspegel subtrahiert wird, womit Störeinstreuungen weitgehend beseitigt werden. Bei niedrigen Spannungen (z.B. EKG oder Thermoelemente) und/oder hohen Genauigkeitsforderungen nahezu unverzichtbar. Im Gegensatz dazu sind asymmetrische Eingängen elektronisch einfacher zu realisieren (einer der beiden Anschlüsse ist mit Masse, meist 0 Volt, verbunden), aber gegenüber Störeinstreuungen empfindlicher. Bei Eingangsspannungen von 1 oder mehr Volt stellt dies jedoch üblicherweise kein größeres Problem dar.

Siehe auch Messdatenerfassung im Labor

Systemanalyse
Verfahren (verschiedene gängige Methoden) zur systematischen und vollständigen Erkennung der Zusammenhänge in der "Realwelt", um die Grundlage für die Programmentwicklung zu bilden. Üblicherweise werden hierbei Prozesse (z.B. Registrierung einer neuer Probe) und Daten (z.B. Probenbeschreibung, Eingangsdatum, gesuchte Parameter, ...) betrachtet, manche Methoden erweitern dies auch noch auf Ereignisse oder andere Dimensionen.

Siehe auch Aktive Benutzerbeteiligung ...

Tabelle
Im Zusammenhang mit Datenbanksystemen wird darunter eine Menge (beliebige Reihenfolge) von Datensätzen mit eindeutig definierter Struktur (Anzahl und Typ der zugehörigen Felder)

Siehe auch Datenbank-Einsatz im Labor

TCP/IP
Gängigstes "Protokoll" zur Kommunikation zwischen Rechnern in einem größeren Netzwerk. Bei TCP/IP wird jeder Rechner durch seine IP-Adresse identifiziert und kann auch noch einen leichter zu merkenden Namen (z.B. "www.ats-vienna.com") erhalten, der mit Hilfe eines DNS (Domain Name Server) in die IP-Adresse übersetzt wird. Im Gegensatz zu den bei kleinen Netzwerken weitverbreitenden Protokollen NetBEUI (Microsoft) und IPX (Novell) ist TCP/IP für weltumspannende Netzwerke (z.B. das Internet) prädestiniert. Die Verwendung mehrerer Netzwerkprotokolle gleichzeitig ist übrigens weitgehend problemlos und auf vielen Rechnern Standard.

Tiefpassfilter
Elektronische Baugruppe (im einfachsten Fall nur aus Widerständen und Kondensatoren bestehend) zur Abschwächung höherfrequenter Schwingungen. Da auch das Nutzsignal beeinflusst werden kann, sind diese Filter nur als Notlösung zur Reduktion von Störeinstreuungen oder Rauschen sinnvoll. Tiefpassfilter müssen jedoch vor jedem Datenerfassungssystem mit Analog-Digital-Wandlung zur Vermeidung von Aliasing-Effekten eingesetzt werden.

Siehe auch Messdatenerfassung im Labor

Transaktionsverwaltung
Bei Datenbanken sorgt die T. dafür, dass zusammengehörige Aktionen (z.B. Schreiben einer neuen Kundenadresse und eines neuen Auftrages) nur vollständig - oder gar nicht - erfolgen. Damit wird die Gefahr der Entstehung inkonsistenter (unvollständiger oder fehlerhafter) Datenbestände vermieden, die ansonsten eine schwer auffindbare Problemquelle darstellen würden.

Siehe auch Datenbank-Einsatz im Labor

UNIX-Workstation
(oder schlicht "Workstation"): Rechnersysteme, die preislich und hinsichtlich der Leistungsfähigkeit unmittelbar über den Personal Computern angesiedelt sind. Die Geräte sind mit dem mehrbenutzerfähigen Betriebssystem UNIX ausgerüstet. Workstations und Personal Computer setzen sich zur Zeit eindeutig gegenüber größeren Systemen durch.

Varianzhomogenität
Die Voraussetzung der üblichen Berechnungsverfahren in der Regressionsanalyse ("Methode der kleinsten Quadrate") ist, dass die mittleren Fehler der einzelnen Messpunkte unabhängig von anderen bekannten Parametern sind (z.B. von der Standardkonzentration in einer Eichreihe). Dies ist jedoch nicht immer gegeben (z.B. führen Pipettierfehler von durchschnittlich 1 % bei einem Standard mit 10 g/l zu einem Fehler von 0.1, während ein Standard mit 50 g/l dann auf 0.5 im Mittel kommt). Streng genommen darf in einem solchen Fall keine Regressionsanalyse verwendet werden, wenn der Fehler nicht durch apparative oder mathematische Verfahren konstant gemacht werden kann (wenn nur ein multiplikativer Fehler wie beim Pipettieren vorliegt, z.B. durch Verwendung des Logarithmus der Messwerte). In der Praxis wird oft - mehr oder weniger sorglos - mit unterschiedlich gewichteten Regressionen oder anderen Verfahren gearbeitet.

Siehe auch Qualitätssicherung in der Analytik