Ein paar tausend Datensätze sollten für keine DB ein Problem sein, die kommen meist erst dann wenn Daten ungeschickt gespeichert, Tabellen kompliziert miteinander verbunden sindund vor allem je mehr User gleichzeitig am werken sind ... wie aus meiner Formulierung zu ersehen ist ist das DB-Geschwindigkeitsproblem ein sehr Individuelles!
Prinzipiell kannst Du Indices jederzeit dazunehmen oder weglassen. Das geht bei den meisten DB auch mit den Primarys. Die meisten DB beinhalten auch Pflege-Tools, die die Tabellen nach Fehlern und Ähnlichem durchforsten und optimieren und reparieren und und und.
Wenn Du MySQL als Backend benutzt, kannst Du Dir z.B. ansehen wieviel MB jede Tabelle an Speicher verbraucht, und der Speicherbedarf für die Indices steht gleich daneben.
Ich würde mal ganz ohne Indices beginnen (ausser sie sind sinnvoll, z.B. um doppelte Werte in einem Feld zu verhindern ...) und dann wenn die Perfomance nachlassen sollte den einen oder anderen Index ausprobieren.
g
Base Tabellen Indexentwurf Ressourcenverbrauch
Moderator: Moderatoren
Re: Base Tabellen Indexentwurf Ressourcenverbrauch
g
LucidLynx/WinXP LibreOffice v3.3.2 ab 03/12 v3.3.2 & v3.4.5
LucidLynx/WinXP LibreOffice v3.3.2 ab 03/12 v3.3.2 & v3.4.5
Re: Base Tabellen Indexentwurf Ressourcenverbrauch
Aloha
Mit Indizes kannst Du bei "kleineren" Datenbanken prinzipiell wie wild um Dich schmeissen, der zusätzliche Speicherbedarf ist bei den heutzutage üblichen Festplattengrößen absolut vernchlässigbar.
Dabei ist allerdings zu bedenken, dass
a) Indizes Suchvorgänge nicht zwangsläufig beschleunigen, vor allem bei "kleineren" Datenmengen wird da in der Regel kein Unterschied feststellbar sein
b) Der schreibende Zugriff (Daten hinzufügen / verändern) sich in der Regel entsprechend verlangsamt
c) Indizes bei der Suche z.B. mit Wildcards unter Umständen überhaupt keine Hilfe sind. Suchst Du über eine Spalte mit "LIKE '%schmidt%"', werden Dir da keine Indizes weiterhelfen
Das lässt sich per Makro sehr deutlich beschleunigen (auch wenn ein paar Workarounds nötig sind), aber wenn man die Filter-Funktion in Sachen Komfort und Bedienung als gut erachtet, ist sie das Mittel der Wahl.
Mit Indizes kannst Du bei "kleineren" Datenbanken prinzipiell wie wild um Dich schmeissen, der zusätzliche Speicherbedarf ist bei den heutzutage üblichen Festplattengrößen absolut vernchlässigbar.
Dabei ist allerdings zu bedenken, dass
a) Indizes Suchvorgänge nicht zwangsläufig beschleunigen, vor allem bei "kleineren" Datenmengen wird da in der Regel kein Unterschied feststellbar sein
b) Der schreibende Zugriff (Daten hinzufügen / verändern) sich in der Regel entsprechend verlangsamt
c) Indizes bei der Suche z.B. mit Wildcards unter Umständen überhaupt keine Hilfe sind. Suchst Du über eine Spalte mit "LIKE '%schmidt%"', werden Dir da keine Indizes weiterhelfen
Die GUI-Suche ist in der Tat sehr langsam, nämlich weil sie keinerlei Nutzen aus der Tatsache zieht, dass man hier mit einer Datenbank arbeitet.clipnotic hat geschrieben:In einem anderen Thread hier irgendwo hab ich gelesen, dass die GUI, wenn man über die Fernglas Suche sucht, sehr langsam sein soll.
Wäre das Optimum, wenn man sich eine eigene Suchfunktion per Makro bastelt? Eigentlich bin ich mit dem Filter so wie er ist ganz zufrieden
Das lässt sich per Makro sehr deutlich beschleunigen (auch wenn ein paar Workarounds nötig sind), aber wenn man die Filter-Funktion in Sachen Komfort und Bedienung als gut erachtet, ist sie das Mittel der Wahl.