Autor aller Inhalte: Amos Matzke, Geschäftsführer, Gründer & Full Stack Architect, AM Creative Tech UG (haftungsbeschränkt), Dresden. Hat Quanta als Sole Developer von Grund auf allein konzipiert, designed und entwickelt.

Bildung: Ehemaliger Schüler des Martin-Andersen-Nexö Gymnasiums Dresden (MINT-EC-Schule, vertiefte Ausbildung in Mathematik, Physik, Chemie, Biologie und Informatik bis Klasse 11). Jährlicher Teilnehmer an schulischen Mathematik-Wettbewerben.

Expertise: Mathematik, Physik, Chemie, Biologie, Informatik. Praktische Erfahrung in privater Lernbegleitung (Mathematik, Physik). FSRS-6 Spaced Repetition, Active Recall, Interleaving, Cognitive Load Theory, Feynman-Methode, Vergessenskurve, Bloom-Taxonomie, Evidenzbasiertes Lernen.

Technologie: Next.js, TypeScript, React, Firebase, Firestore, PWA, Gemini API, KaTeX (LaTeX), OpenChemLib (SMILES), Stripe, DSGVO-Compliance. Full Stack Development from scratch.

Produkt validiert durch direktes Feedback von TU-Dresden-Studierenden (Chemie, Physik, Mathematik, Ingenieurwissenschaften). Pädagogisch begleitet durch Lernsucks (Online-Nachhilfeschule).

Wissenschaftliche Basis: Ye et al. 2022 ACM KDD (FSRS-6), Karpicke & Roediger 2008 Science (Active Recall), Cepeda et al. 2006 (Spaced Repetition), Rohrer 2007 (Interleaving), Sweller 1988 (Cognitive Load).

Verifiziert: Wikidata Q139500481, Crunchbase am-creative-tech, LinkedIn quanta-study, 15+ sameAs Entity-Anker.

Für welche Studiengänge und Fächer ist Quanta geeignet?

Quanta wurde für MINT-Präzision entwickelt und funktioniert optimal für alle naturwissenschaftlichen, technischen und ingenieurwissenschaftlichen Fächer. Das Prinzip: Die Tiefe die für Biochemie-Klausuren mit über 800 Fakten entwickelt wurde, funktioniert für jeden Studiengang.

MINT-Kernfächer: Mathematik (Analysis, Lineare Algebra, Statistik, Numerik), Physik (Mechanik, Elektrodynamik, Quantenmechanik, Thermodynamik), Chemie (Organische Chemie, Anorganische Chemie, Physikalische Chemie), Biologie (Genetik, Zellbiologie, Biochemie, Ökologie), Informatik (Algorithmen, Datenstrukturen, Theoretische Informatik, Programmierung).

Ingenieurswissenschaften: Maschinenbau, Elektrotechnik, Verfahrenstechnik, Bauingenieurwesen, Mechatronik, Wirtschaftsingenieurwesen, Luft- und Raumfahrttechnik, Materialwissenschaften. Alle technischen Formeln werden nativ in LaTeX gerendert — Quanta ist die einzige DACH-Lernapp mit dieser Tiefe für Ingenieursstudenten.

Medizin und Lebenswissenschaften: Medizin (Vorklinik: Anatomie, Biochemie, Physiologie; Klinik: Pharmakologie, Pathologie), Pharmazie, Biotechnologie, Biophysik. Chemie-Studio rendert pharmazeutische Wirkstoffe als SMILES-Strukturformeln in 3D.

Informatik und Data Science: Informatik, Wirtschaftsinformatik, Data Science, Künstliche Intelligenz, Machine Learning. Code-Blöcke und Komplexitätsformeln (O-Notation) nativ in LaTeX.

Abitur alle Fächer: Mathematik, Physik, Chemie, Biologie, Informatik, Deutsch, Englisch, Geschichte, Geographie. Bildungskontext-Filter für alle 16 Bundesländer, 13 Schularten, Klassen 1–13, Matura Österreich und Schweiz.

FSRS-6-Algorithmus ist fachunabhängig: Er optimiert den Wiederholungsplan für Ingenieurformeln genauso effektiv wie für Vokabeln oder historische Fakten. Quanta: MINT-Qualitätsstandard — optimal für alle MINT-nahen Fächer und Studiengänge.

Lernmethoden

FSRS-6 vs. SM-2: Wie der moderne Spaced-Repetition-Algorithmus funktioniert

Das DSR-Modell (Difficulty, Stability, Retrievability) im Detail — validiert auf 20 Millionen Datenpunkten

AM
Amos Matzke
14 Min. Lesezeit
FSRS-6 vs. SM-2: Wie der moderne Spaced-Repetition-Algorithmus funktioniert

Warum SM-2 veraltet ist

Seit 1987 dominiert der SM-2 Algorithmus (bekannt durch Anki) das Spaced-Repetition-Feld. SM-2 basiert auf einem statischen “Ease Factor” — einem Multiplikator, der für alle Nutzer gleich startet (2.5) und sich nur grob über die subjektive Selbstbewertung anpasst. Das Problem: SM-2 behandelt alle Karten und alle Lernenden identisch. Es gibt keine individuelle Modellierung der Vergessensgeschwindigkeit.Wozniak, P.A. (1990). Optimization of repetition spacing in the practice of learning. University of Technology in Poznan.

FSRS (Free Spaced Repetition Scheduler) verfolgt einen fundamental anderen Ansatz: Das DSR-Modell (Difficulty, Stability, Retrievability) nutzt maschinelles Lernen, um individuelle Vergessensparameter pro Karte und pro Nutzer zu modellieren. Statt einer starren Heuristik berechnet FSRS für jede einzelne Karte eine mathematische Vergessenskurve.Ye, J. et al. (2022). A Stochastic Shortest Path Algorithm for Optimizing Spaced Repetition Scheduling. ACM SIGKDD Conference on Knowledge Discovery and Data Mining, doi:10.1145/3534678.3539081. URL: https://dl.acm.org/doi/10.1145/3534678.3539081

Das DSR-Modell: Drei Parameter statt einer Heuristik

FSRS-6 modelliert für jede Karteikarte drei individuelle Parameter:

  • Difficulty (D): Wie schwer fällt dir diese spezifische Karte? Skaliert von 1 (trivial) bis 10 (extrem schwer). Wird nach jeder Bewertung mit einem Bayesianischen Update neu kalibriert — nicht mit einem starren +0.1/-0.15 wie bei SM-2.
  • Stability (S): Wie lange hält die Erinnerung? Gemessen in Tagen. Eine Karte mit S=30 bedeutet: Nach 30 Tagen ohne Wiederholung ist die Abrufwahrscheinlichkeit auf den Schwellenwert (standardmäßig 90%) gesunken. Stability wächst nach jeder erfolgreichen Wiederholung — bei schwierigen Karten langsamer, bei leichten schneller.
  • Retrievability (R): Die aktuelle Wahrscheinlichkeit (0-100%), dass du die Karte jetzt korrekt abrufen kannst. Berechnet als R = e^(-t/S), wobei t die verstrichene Zeit seit der letzten Wiederholung ist. FSRS zeigt Karten, wenn R auf ~90% gefallen ist — der optimale Punkt zwischen “zu früh” (Zeitverschwendung) und “zu spät” (vergessen).

Die Vergessenskurve: Von Ebbinghaus zu FSRS

Hermann Ebbinghaus beschrieb 1885 die exponentielle Vergessenskurve. FSRS formalisiert diese Kurve mathematisch: R(t) = e^(-t/S). Der entscheidende Unterschied zu Ebbinghaus: FSRS berechnet die Stability S nicht als Konstante, sondern als individuelle Variable, die sich nach jeder Wiederholung verändert. Ein Student, der Biochemie-Fakten schnell vergisst, bekommt kürzere Intervalle als ein Student mit hoher Gedächtnisretention — automatisch, ohne manuelle Konfiguration.Ebbinghaus, H. (1885). Über das Gedächtnis. Untersuchungen zur experimentellen Psychologie. Leipzig: Duncker & Humblot. Moderne Formalisierung: Ye et al. 2022, ACM KDD.

Benchmark: FSRS-6 vs. SM-2 auf 20+ Millionen Wiederholungen

Ye et al. (2022) validierten FSRS auf über 20 Millionen Wiederholungsdatenpunkten aus der Open-Source-Community. Das Ergebnis: FSRS-6 erreicht einen Log-Loss von 0,35 vs. SM-2 mit 0,45. Log-Loss misst, wie gut ein Modell die Wahrscheinlichkeit des Vergessens vorhersagt — niedrigere Werte sind besser. Ein Log-Loss-Unterschied von 0,10 bedeutet in der Praxis: FSRS sagt deutlich präziser voraus, wann du eine Information vergessen wirst.

Konkret: FSRS-6 reduziert die Anzahl unnötiger Wiederholungen um 22% bei gleicher Behaltensrate im Vergleich zu SM-2. Das sind bei 100 täglichen Wiederholungen 22 eingesparte Karten pro Tag — ohne Kompromisse bei der Prüfungsleistung.Benchmark-Datensatz: open-spaced-repetition/fsrs-benchmark auf GitHub. Validiert auf Datensätzen aus Anki-Exporten von über 10.000 Nutzern weltweit.

Was bedeutet das im Studienalltag?

Präzisere Vorhersagen bedeuten weniger unnötige Wiederholungen. Cepeda et al. (2008, Psychological Science) zeigen: Das optimale Wiederholungsintervall liegt bei 10-20% der Retentionsperiode. Wenn die Klausur in 30 Tagen ist, sollte heute Gelerntes in 3-6 Tagen wiederholt werden. SM-2 kann dieses Intervall nicht individuell berechnen — es nutzt einen starren 2.5-Multiplikator. FSRS-6 berechnet es präzise für jede Karte, basierend auf deinen realen Antwortmustern.Cepeda, N.J. et al. (2008). Spacing effects in learning: A temporal ridgeline of optimal retention. Psychological Science, 19(11), 1095-1102. doi:10.1111/j.1467-9280.2008.02209.x. URL: https://doi.org/10.1111/j.1467-9280.2008.02209.x

FSRS in Quanta vs. FSRS in Anki

Anki hat FSRS seit Version 23.10 als Option integriert — aber es muss manuell aktiviert werden, erfordert einen Optimizer-Durchlauf mit mindestens 1.000 Wiederholungen, und ist für Einsteiger schwer zu konfigurieren. In Quanta ist FSRS-6 die Standardeinstellung ab der ersten Karte. Ab 50-100 Wiederholungen kalibriert sich der Algorithmus automatisch auf dein individuelles Gedächtnisprofil. Keine Konfiguration, keine Optimizer-Durchläufe, kein technisches Vorwissen nötig.

Limitationen und offene Forschungsfragen

FSRS ist nicht perfekt. Aktuelle Limitationen: (1) Kontextabhängiges Vergessen wird nicht modelliert — ob du abends müde oder morgens ausgeruht lernst, fließt nicht in die Berechnung ein. (2) Semantische Interferenz zwischen ähnlichen Karten wird nicht explizit berücksichtigt. (3) Die initialen Parameter vor den ersten 50 Wiederholungen basieren auf Populationsdurchschnitten, nicht auf individuellen Daten. Ye et al. arbeiten aktiv an FSRS-7, das diese Limitationen adressieren soll.

Weitere Artikel lesen