Handlungsempfehlung #ABCforJobs

#4 – Anwendung Feststellungsverfahren schriftsprachlicher Kompetenzen

Handlungsempfehlung #ABCforJobs

Anwendung Feststellungsverfahren schriftsprachlicher Kompetenzen

Die vorliegende Handlungsempfehlung soll eine fundierte Einschätzung zur Nutzung von „lea.online“ zu ermöglichen. Sie enthält wichtige Hinweise und Tipps, die auf Erfahrungen aus dem Projekt #ABCforJobs basieren. Ziel ist es, Erkenntnisse aus der Nutzung aufzuzeigen, um die Stärken und Potenziale der Anwendung zu erkennen und mögliche Herausforderungen zu berücksichtigen. Darüber hinaus enthält sie praxisorientierte Ratschläge, wie sich der Einsatz von „lea.online“ optimieren lässt, um im Kompetenzfeststellungsverfahren möglichst zuverlässige Ergebnisse zu erzielen.

Ausgangssituation und Entscheidungsfindung für lea.online als Kompetenzfeststellungsverfahren

Ausgangssituation

Ziel des Projekts #ABCforJobs war die arbeitsorientierte Förderung von Schriftsprachkompetenzen bei gering literalisierten Erwachsenen. Eine große Herausforderung dabei war die verlässliche Identifikation der Personen auf dem geeigneten schriftsprachlichen Niveau (Projektfokus: Alpha-Level 3/4). Anstelle einer umfangreichen Entwicklung und Erprobung eines eigenen berufsorientierten Diagnoseverfahrens für schriftsprachliche Kompetenzen entschied sich das Projektteam für die Anwendung eines bereits erprobten Verfahrens. Dies ermöglichte nicht nur eine effiziente Anwendung, sondern auch wertvolle praktische Erfahrungen im Umgang damit. Der Test von lea.online, der im Rahmen der AlphaDekade entwickelt wurde, unterstützt gezielt die Förderung der Grundbildung. Diese Wahl entsprach auch dem Wunsch des beauftragenden Bundesministeriums, bereits entwickelte Modelle und Tools zu nutzen.

Prozess der Entscheidung für lea.online

Im Rahmen einer umfangreichen Recherche- und Analysephase wurden geeignete Diagnoseinstrumente zur Erfassung gering literalisierter Erwachsener identifiziert und einander gegenübergestellt. Dabei wurden unter anderem die Alpha-Kurzdiagnostik aus dem DVV-Rahmencurriculum Schreiben und Lesen, die Oldenburger Diagnostikbögen sowie das Kompetenzfeststellungsverfahren otu.lea von lea.online systematisch analysiert und bewertet, um ein geeignetes Verfahren für die schriftsprachliche Diagnostik in der Grundbildung und Alphabetisierung zu ermitteln. Im Anschluss an diese Analyse wurden erste Erprobungen mit dem Verfahren otu.lea durchgeführt, um dessen Anwendbarkeit und Nutzerfreundlichkeit zu überprüfen. otu.lea wurde am Institut Technik und Bildung (ITB) der Universität Bremen entwickelt. Es entstand im Rahmen des Projekts „lea.online – Literalitätsentwicklung von Arbeitskräften Online“, das vom Bundesministerium für Bildung und Forschung (BMBF) von 2018 bis 2022 gefördert wurde.

Das Verfahren überzeugte durch

  • seine hohe Flexibilität,
  • die ortsunabhängige Nutzungsmöglichkeit,
  • die schnelle und präzise Auswertung der Ergebnisse mit klaren Aussagen über die schriftsprachlichen Kompetenzen auf Alpha-Level 3/4.

Auf Basis der positiven Testergebnisse und der wissenschaftlich fundierten Validierung des Verfahrens wurde in enger Abstimmung mit den beteiligten Fachteams die Entscheidung getroffen, otu.lea als Instrument zur Feststellung und Bewertung von Schriftsprachkompetenzen zu implementieren.

Illustration einer Gruppe von Menschen in unterschiedlichen Arbeitskleidungen, darunter Koch, Handwerker, Ärztin, Pflegekraft, Bauarbeiter und weitere Berufsgruppen. Darüber steht das Logo „otu.lea“. Unter der Grafik ein Hinweistext zur Teilnahme mit Code.

Startseite otu.lea

Entscheidungsfaktoren für die Auswahl von otu.lea

  • Praxisrelevanz: Speziell für gering literalisierte Erwachsene entwickelt, mit arbeitsorientierten Aufgabenstellungen
  • Technische Vorteile und Flexibilität: Digitale Umsetzung ermöglicht ortsunabhängige Durchführung und schnelle sowie präzise Auswertung der Ergebnisse. Anpassbarkeit an verschiedene Nutzungsszenarien (Präsenz- und Online-Settings) abhängig von Projektanforderungen und Zielgruppenbedürfnissen. Ein dazugehörendes Tool (lea.Dashboard) erleichtert die Dokumentation und weitere Auswertung der Ergebnisse.
  • Adaptive Diagnostik und Lernverlaufsanalyse: Die Schwierigkeitsgrade ermöglichen eine differenziertere Testung. Das Verfahren zur Eingangs- und formativen Diagnostik ermöglicht Lernerfolgsvergleiche und wiederholte Testungen.
  • Wissenschaftliche Grundlage: Validiertes Kompetenzmodell der Universität Bremen.
  • Test-Sensitivität: Der Test liefert zuverlässige Aussagen zu Alpha-Level 3/4 (fokussierte Zielgruppe im Projekt #ABCforJobs).
  • Erprobungsergebnisse: Positive Erfahrungen aus Pre-Tests und Rückmeldungen von Berufsschulen bestätigen die Eignung.

Anwendung von lea.online zur Feststellung schriftsprachlicher Kompetenzen

Anwendungen von lea.online

lea.online bietet eine umfassende Lösung zur Erfassung und Förderung von Alphabetisierungs- und Grundbildungskompetenzen. Es umfasst praxisnahe und differenzierte Aufgaben in realen beruflichen Kontexten und verfügt über vier zentrale Anwendungen:

  • lea (Testumgebung)
  • Dashboard (Dokumentation und Auswertung)
  • App (kostenfreie mobile Lernanwendung)
  • Backend (Autor*innen- und Verwaltungssystem als Schnittstelle zwischen allen lea.-Anwendungen)

Tipp

Eine umfangreiche Handreichung von lea.online zu den einzelnen Anwendungen ist unter diesem Link zu finden.

Im Rahmen des Projekts #ABCforJobs wurden zwei Anwendungen genutzt: otu.lea zur differenzierten Erfassung der schriftsprachlichen Kompetenzen und das lea.Dashboard zur Auswertung und Dokumentation der Testergebnisse. Insgesamt wurden rund 360 Personen im Rahmen des Projekts getestet und erfasst. Mithilfe dieser Tools war eine gezielte Förderung der Teilnehmenden in den #ABCforJobs-Trainingsmaßnahmen möglich. Gleichzeitig konnten damit auch Lernerfolge sichtbar gemacht und somit die Wirksamkeit der Trainingsmaßnahmen evaluiert werden.

Nachfolgend werden diese beiden Anwendungen näher erläutert.

otu.lea: Online-Testumgebung

otu.lea ist eine niedrigschwellige, förderdiagnostische Online-Testumgebung. Sie erfasst die Kompetenzen in den Bereichen Lesen, Schreiben, Sprachgefühl und Rechnen auf unterschiedlichen Schwierigkeitsgraden (einfach, mittel und schwer). Der Test ist kostenfrei und anonym über einen Webbrowser zugänglich. Je nach gewähltem Schwierigkeitsgrad geben die Ergebnisse Auskunft darüber, inwieweit ein Alpha-Level erfüllt ist. Für die schriftsprachliche Diagnostik wurden im Projekt die Untertests „Lesen“ und „Schreiben“ durchgeführt. otu.lea kann sowohl als Eingangsdiagnostik als auch zur formativen und summativen Evaluation eingesetzt werden. Im Rahmen des Projekts wurde otu.lea als Einstufungs- und Abschlusstest sowie teilweise auch als Zwischentest bei längeren Trainings durchgeführt, um den Lernfortschritt der Teilnehmenden kontinuierlich zu überwachen und die Wirksamkeit der Fördermaßnahmen zu evaluieren. Es hat sich bewährt, die Ergebnisse nicht nur zur Einstufung der Teilnehmenden zu nutzen, sondern auch als Grundlage für die individuelle und gezielte Weiterentwicklung der Fördermaßnahmen.

lea.Dashboard: Dokumentation und Auswertung der Ergebnisse

Das lea.Dashboard ist ein Tool für Kursleitende, das eine detaillierte Auswertung der otu.lea-Testergebnisse ermöglicht. Es bietet fall- und gruppenbasierte Analysen und unterstützt die Ableitung konkreter Förderbedarfe. Das Dashboard liefert umfassende Daten der Lernstandserfassung. Es zeigt Lernfortschritte an und hilft so, die Alphabetisierungsarbeit zu verbessern und zu optimieren. Über das Dashboard können Lehrende individuelle Testcodes für die Teilnehmenden generieren. Dadurch wird die Zuordnung von Testergebnissen zu bestimmten Kursen oder Lerngruppen erleichtert. Umgekehrt ist es auch möglich, die Ergebnisse von bereits durchgeführten Tests mithilfe des Testcodes nachträglich dem eigenen Dashboard hinzuzufügen. Entscheidend ist, dass entweder bei dem otu.lea-Test ein bestimmter Code eingegeben wird oder der vom System zufällig generierte Code für eine spätere Übertragung dokumentiert wird. Das lea.Dashboard dient somit als zentrale Schnittstelle zur Verwaltung, Analyse der Testergebnisse und Ableitung gezielter Förderbedarfe.

Tipp

  • Die kombinierte Nutzung von otu.lea und dem lea.Dashboard ermöglicht neben einer zuverlässigen Alpha-Level-Bestimmung auch eine dauerhafte Ergebnissicherung sowie eine detaillierte fall- und gruppenbasierte Auswertung. Dadurch können gezielte Förderbedarfe abgeleitet werden.
  • Zufällig generierte Testcodes bei der Testung protokollieren, um die Ergebnisse dem lea.Dashboard sowie zu bestimmten Kursen zuordnen zu können.

Tipps zur Vorbereitung, Durchführung und Auswertung der Tests

Vorbereitung
Bei der Vorbereitung waren für eine eventuelle Evaluation oder Dokumentation im Projekt folgende Dokumente sinnvoll:

  • Einverständnis- und Datenschutzerklärung
  • Begleitbögen zu personenbezogenen Daten, Herkunft, Sprachkenntnissen und dem Bildungshintergrund der Testteilnehmenden
  • weitere projektbezogene Dokumente

Über das lea.Dashboard (s. o) wurde pro Testtermin ein eigener Kurs angelegt und für jede am Termin teilnehmende Person ein individueller Code generiert. Dieser sicherte die korrekte Zuordnung der Testergebnisse. Jeder weitere Test dieser Person wurde ebenfalls mit diesem Code durchgeführt, damit die Testergebnisse im Verlauf vergleichbar waren.

Durchführung
Die Teilnehmenden meldeten sich unter www.otulea.lealernen.de mit ihrem individuellen Code an. Der Test begann mit dem Bereich „Lesen Mittel“ (erfasst Alpha-Level 4), konnte jedoch je nach Selbsteinschätzung der Teilnehmenden oder Einschätzung der Testleitung flexibel angepasst werden. Erfahrungen haben gezeigt, dass diese individuelle Anpassung erforderlich ist, um den Lernstand der Teilnehmenden präziser zu erfassen. Basierend auf den Ergebnissen erfolgte ein Wechsel zu den Bereichen „Lesen Einfach“ (erfasst Alpha-Level 3), oder „Lesen Schwer“ (erfasst Alpha-Level 5). Anschließend wurde der Untertest „Schreiben“ analog zu „Lesen“ mit dem Level „Mittel“ begonnen.

Zu beachten ist, dass die Durchführung von zwei otu.lea-Testbereichen (Lesen und Schreiben) je nach Kompetenz der Teilnehmenden zwischen ein bis zwei Stunden in Anspruch nimmt. Dies erfordert insbesondere von sehr schwachen Teilnehmenden eine sehr große Konzentrationsleistung. Es empfiehlt sich, auf ausreichend Pausen zu achten oder den Test bei Bedarf aufzuteilen.

Teilnehmende ohne ausreichende Erfahrung in der PC-Nutzung erhielten vor dem Test eine systematische digitale Einführung. Dabei lernten sie grundlegende Fähigkeiten für die Testbedienung kennen, z. B. die Mausführung, Linksklicks und das Tippen von Groß- und Kleinbuchstaben. Das Ziel bestand darin, ihnen die nötige Sicherheit im Umgang mit digitalen Tools zu vermitteln und ungewollte negative Einflüsse auf die schriftsprachlichen Testergebnisse möglichst zu minimieren.

Tipp

  • Pausen und ausreichend Zeit einplanen, insbesondere für leistungsschwache Teilnehmende.
  • Digitale Einführung einplanen, um Teilnehmende mit geringen PC-Kenntnissen auf die Testdurchführung vorzubereiten.

Unmittelbare Ergebnisrückmeldung (otu.lea)

Die Teilnehmenden erhalten von otu.lea direkt nach Beendigung eines Testbereichs (z. B. Lesen auf Stufe „Mittel“) eine Ergebnisrückmeldung, die auch ausgedruckt werden kann. Die Rückmeldung umfasst einen Gesamtscore, der angibt, zu wie viel Prozent die Person das jeweilige Alpha-Level erreicht hat. Zusätzlich werden die Prozentwerte der einzelnen ausformulierten Kann-Beschreibungen je Alpha-Level angegeben, aus denen sich die Berechnung des Gesamtscores ergibt. Insbesondere diese Beschreibungen (z. B. „Ich kann einzelne Wörter in einem Text identifizieren und wiedergeben“) machen das Ergebnis für die Teilnehmenden greifbarer und können individuelle Stärken und Schwächen aufzeigen. Diese Ergebnisansicht wird gespeichert und ist mit dem individuellen Code weiterhin abrufbar. Bei weiteren Testwiederholungen mit gleichem Code auf dem gleichen Schwierigkeitsgrad wird das Testergebnis jedoch überschrieben und ist dann nur noch über das lea.Dashboard einsehbar.

Identifikation von Teilnehmenden für die #ABCforJobs-Trainings

Die Ergebnisse aus otu.lea wurden im Projekt #ABCforJobs als Auswahlkriterium für die Teilnahme am schriftsprachlichen Training verwendet. Für das Training geeignet waren Personen, deren schriftsprachliche Kompetenzen im Lesen und Schreiben mindestens dem Alpha-Level 3 und höchstens dem Alpha-Level 4 entsprachen. In Rücksprache mit den Testentwickler*innen wurden hierfür eigene Cut-off-Werte festgelegt, um eine wissenschaftlich fundierte und praxisorientierte Einschätzung der schriftsprachlichen Kompetenzen zu gewährleisten. Demnach galt: Ab 65 % ist das Alpha-Level erreicht und ab 90 % besteht eine Tendenz zum nächsthöheren Alpha-Level. In Einzelfällen wurde eine Ausnahme gemacht, wenn die Prozentzahlen nur geringfügig unter 65 % lagen. Die Ergebnisse können im Dashboard eingesehen, ausgedruckt und mit früheren Tests verglichen werden. Das lea.Dashboard liefert eine stärkere verbale Ausdifferenzierung der Leistungsstufen, die für das Projekt #ABCforJobs jedoch nicht weiter genutzt wurde:

> 80 % = „voll erfüllt“
65 – 80 % = „beinahe erfüllt“
40 – 65 % = „teilweise erfüllt“
< 40 % = „nicht erfüllt“

Ein junger Mann sitzt an einem Holztisch und hält ein Tablet in den Händen. Auf dem Bildschirm ist eine bunte Lern-App mit spielerischen Grafiken zu sehen, die Abkürzungen von Flughäfen anzeigen.

lea.Dashboard

Dokumentation und Auswertung der Ergebnisse (lea.Dashboard)

Über das lea.Dashboard können alle otu.lea-Ergebnisse einer Person eingesehen und verwaltet werden, sofern entweder ein vorab generierter Code beim Test genutzt wurde oder der automatisch generierte Code nachträglich zum Dashboard hinzugefügt wird. Für eine leichtere Identifizierung kann zusätzlich zum Code auch der Name der Person eingetragen werden.

Das Dashboard liefert eine differenzierte Ergebnisdarstellung der erreichten Prozentwerte auf Basis der Alpha-Level und der einzelnen Kann-Beschreibungen getrennt nach den Bereichen Lesen und Schreiben. Insbesondere die Ergebnisse aus den Kann-Beschreibungen können Lehrkräften als Grundlage für die Entwicklung gezielter Fördermaßnahmen dienen.

    Die Nutzung des lea.Dashboards ermöglicht auch die Erfassung von Lernverläufen (formative Diagnostik), indem eine Person mehrfach mit otu.lea getestet wird. Um Lernerfolge (wissenschaftlich) evaluieren zu können, sollte pro Person nur ein Testcode verwendet werden und der gleiche Schwierigkeitsgrad (einfach, mittel oder schwer) gewählt werden, da nur dann die Ergebnisse vergleichbar sind. Erst nach der Sicherstellung von erzielten Lernerfolgen sollte auf den nächsthöheren Schwierigkeitsgrad gewechselt werden.

    Wie bereits beschrieben, können Kurse angelegt werden, denen die jeweiligen Testcodes hinzugefügt werden. Dadurch ermöglicht das Dashboard eine Ergebnisansicht sowohl auf Individual- als auch auf Gruppenebene. Ein Code kann auch mehreren Kursen zugeordnet sein. Das ist hilfreich, wenn unterschiedliche Gruppenvergleiche von Interesse sind.

    Durch die gemeinsame Nutzung des lea.Dashboards kann zudem die Koordination bei der Datenerhebung mit unterschiedlichen Projektpartner*innen an verschiedenen Standorten verbessert werden. Hierzu wird der Partnerorganisation gezielt Zugriff auf das System gewährt, sodass die zuständige Fachkraft eigenständig Testcodes erstellen und die Tests mit otu.lea direkt vor Ort durchführen kann. Die Ergebnisse werden automatisch im Dashboard hinterlegt. Dies verdeutlicht die einfache Handhabung der Testumgebung und Auswertungsplattform und zeigt, wie der digitale Zugang eine effiziente und flexible Zusammenarbeit mit externen Partner*innen ermöglicht.

    Tipp

    • Ergebnisrückmeldung mit Kann-Beschreibungen zur individuellen Förderplanung nutzen.
    • Vorab festgelegte Cut-off-Werte (z. B. 65 % Level erreicht, 90 % Tendenz zu einem höheren Level) können bei der Bestimmung der Alpha-Levels helfen.
    • Pro Person sollte nur einen Testcode und gleichbleibender Schwierigkeitsgrad verwendet werden, um die Ergebnisse vergleichbar zu halten.

    Herausforderung und Erkenntnisse im Umgang mit lea.online

    Herausforderungen bei der Anwendung von otu.lea

    Im Rahmen des Einsatzes von otu.lea traten verschiedene Herausforderungen auf, die bei der Nutzung berücksichtigt werden sollten. Ein wesentlicher Aspekt war die digitale Kompetenz der Testteilnehmenden. Teilnehmende mit geringen digitalen Fähigkeiten hatten Schwierigkeiten bei der Tastatureingabe, insbesondere bei der Groß- und Kleinschreibung. Dies führte zu Fehlern und beeinflusste das Testergebnis. Zudem stellte die lineare Teststruktur der Anwendung eine Herausforderung dar. Da ein Zurückspringen zu vorherigen Aufgaben nicht möglich ist, können die Teilnehmenden ihre Antworten nur bedingt überprüfen oder korrigieren. Eine weitere Schwierigkeit stellte die Text-to-Speech-Funktion dar, die in einigen Fällen undeutlich (z. B. einsilbige Wörter wie „ob“) oder fehlerhaft war. Besonders betroffen waren Abweichungen in der Lautbildung und Silbenstruktur, wodurch Wörter unnatürlich oder schwer verständlich klangen. Ein Beispiel für eine Abweichung in der Lautbildung ist das Wort „Vater“, bei dem der Auslaut -er nicht wie üblich als a-Schwa realisiert wurde. Ähnlich trat bei „Tapete“ eine unnatürliche Aussprache auf, bei der alle Vokale durchgehend verkürzt und die erste Silbe betont wurden, sodass das Wort eher wie „Tepete“ klang.

    Tipp

    Bei unklaren Text-to-Speech-Ausgaben sollte die Testleitung die Wörter nochmals vorsprechen.

    Diese Abweichungen könnten auf eine fehlerhafte Verarbeitung der Vokalreduktion und der Silbenstruktur durch die Text-to-Speech-Software hindeuten. Dies stellt insbesondere dann ein Problem dar, wenn das gehörte Wort korrekt verschriftlicht werden soll, da die fehlerhafte Aussprache zu Verwirrung und Missverständnissen führen kann. Besonders betroffen sind Teilnehmende mit geringer Sprachkompetenz oder Lernschwierigkeiten, für die diese Unklarheiten eine zusätzliche Hürde darstellen. 

      Des Weiteren traten bei Teilnehmenden mit Deutsch als Zweitsprache Schwierigkeiten auf, da die Testinhalte häufig unbekannte Begriffe wie „Elan“ oder „Schlamassel“ beinhalteten, was zu Verstehens- und Schreibproblemen führte. Es zeigte sich auch, dass diese Gruppe im Test „Schreiben Mittel“ teilweise schlechtere Ergebnisse erzielte als im Test „Schreiben Schwer“. Grund dafür könnten ihre schwachen sprachlichen Kenntnisse und die damit verbundenen größeren Schwierigkeiten beim Schreiben nach Diktat sein. Beim Test auf mittlerem Niveau hat das Schreiben nach Diktat eine stärkere Gewichtung. Da otu.lea für gering literalisierte Erwachsene mit Deutsch als Muttersprache entwickelt wurde, könnte es bei der schriftsprachlichen Kompetenzerfassung von DaZ-Teilnehmenden zu Verzerrungen kommen.

      Die Mehrheit der Teilnehmenden im Rahmen des Projekts #ABCforJobs hatte einen Zuwanderungshintergrund und sprach Deutsch als Zweitsprache, was sich möglicherweise auf die Testergebnisse ausgewirkt hat.

      Herausforderungen und Erkenntnisse in Bezug auf unterschiedliche Zielgruppen

      Der otu.lea Test wurde mit vier verschiedenen Zielgruppen durchgeführt: Dabei handelte es sich um Erwerbstätige aus den Branchen Hotellerie und Gastronomie (HoGa), Mitarbeitende der Bodenverkehrsdienstleistungen des Frankfurter Flughafens, Erwerbslose mit und ohne Berufserfahrung in HoGa-Berufen sowie Berufsschüler*innen in HoGa-Ausbildungsberufen. Dabei zeigten sich zielgruppenspezifische Herausforderungen und Erkenntnisse, die im Folgenden zusammengefasst werden.

      Die Erwerbstätigen aus der HoGa-Branche (z. B. Köch*innen, Rezeptionist*innen, Servicemitarbeitende) sowie die Mitarbeitenden der Bodenverkehrsdienstleistungen am Frankfurter Flughafen empfanden die Testinhalte als praxisnah und berufsrelevant. Dies steigerte ihre Motivation zur aktiven Teilnahme und zur zügigen Durchführung des Tests. Beide Gruppen verfügten über fortgeschrittene digitale Grundkompetenzen, insbesondere im Umgang mit Tastatur und Maus. Sie schlossen den Test daher in durchschnittlich 90 Minuten erfolgreich ab. Insgesamt äußerten die Teilnehmenden eine hohe Zufriedenheit und gaben positives Feedback zur Relevanz und Gestaltung des Tests.

      Die Mehrheit der Erwerbslosen verfügte über geringe digitale Grundkenntnisse und zeigte eine geringere Affinität zu digitalen Medien. Dies führte zu anfänglicher Unsicherheit bei der Durchführung des Tests. Dank einer digitalen Einweisung konnten jedoch die meisten Teilnehmenden den Test absolvieren. Die geringere Vertrautheit im Umgang mit digitalen Geräten führte zu verlängerten Testzeiten von im Durchschnitt 90 bis 120 Minuten, wodurch die Konzentration der Teilnehmenden vermehrt beansprucht wurde. Darüber hinaus empfanden viele Teilnehmende die Testinhalte als schwierig: Sowohl die verwendeten Wörter als auch die berufsbezogenen Kontexte stellten eine Herausforderung dar. Aufgrund der fehlenden Routine im Umgang mit Computern war es schwer abzuschätzen, inwieweit Fehler während des Tests auf Unachtsamkeit oder mangelnde digitale Fertigkeiten zurückzuführen waren. Trotz dieser Schwierigkeiten bevorzugten viele Erwerbslose einen

      Computertest gegenüber einem handschriftlichen Test, da dieser ihrer Einschätzung nach aufwendiger wäre. Die Gruppe der Berufsschüler*innen, die aus jungen, digitalaffinen Teilnehmenden bestand, hatte keine Schwierigkeiten mit der digitalen Durchführung des Tests. Sie wiesen die kürzeste Testdurchführungszeit auf und gaben positive Rückmeldungen zu den Testinhalten. Aufgrund ihrer hohen digitalen Kompetenz und ihrer Identifikation mit den berufsbezogenen Themen, die der Test abdeckte, waren sie hochmotiviert und konnten den Test schnell bearbeiten. Im Durchschnitt benötigten sie 60 bis 70 Minuten und erzielten in vielen Fällen bessere Ergebnisse.

      Tipp

      • Die Testdauer variiert je nach digitaler und sprachlicher Kompetenz der Teilnehmenden. Insbesondere für schwächere Teilnehmende sollte die Testung auf mehrere Tage aufgeteilt werden.
      • Zusätzliche Herausforderungen können für DaZ-Lernende hinsichtlich des Lese- und Hörverständnisses sowie der sprachlich nicht optimal realisierten Text-to-Speech-Ausgaben entstehen.
      • Der Berufsbezug der Aufgaben kann je nach Berufserfahrung motivierend oder hemmend auf die Testdurchführung wirken.
      • Teilnehmende schätzen an otu.lea das direkte und präzise Feedback sowie die berufsbezogenen Inhalte.

      Empfehlungen für zukünftige Nutzer*innen

      Um die Nutzung für alle Teilnehmenden zu optimieren, empfiehlt es sich, die genannten Herausforderungen zu berücksichtigen und gegebenenfalls Vorbereitungsmaßnahmen wie digitale Unterweisungen für Teilnehmende mit geringen digitalen Kompetenzen oder zusätzliche sprachliche Erklärungen in der Testumgebung einzuplanen. Zudem sollte die zeitliche Planung großzügig gestaltet werden, indem man von mindestens 120 Minuten für die Durchführung ausgeht. Nach einer ersten Testphase kann die Zeitplanung bei Bedarf angepasst werden.

      Wenn im Vorfeld keine Angaben zu den sprachlichen und digitalen Kenntnissen der Teilnehmenden vorliegen oder eine direkte Einschätzung (persönlich oder telefonisch) nicht möglich ist, empfiehlt es sich, Infoblätter oder Handzettel vorzubereiten (z. B. eine Bescheinigung über den Testtermin oder Kontaktinformationen für Nachfragen). Diese können insbesondere Personen mit geringen sprachlichen Kenntnissen als Unterstützung mitgegeben werden, beispielsweise zur Vorlage beim Jobcenter oder den Arbeitgeber*innen. Zusätzlich sollten Informationsmaterialien zu alternativen Fördermöglichkeiten und -angeboten bereitgehalten werden, falls die Teilnehmenden das erforderliche Alpha-Level nicht erreichen. Dies gilt sowohl für die Zielgruppe, die unterhalb des Alpha-Levels liegt, als auch für die Zielgruppe, die oberhalb des Alpha-Levels liegt.

      Außerdem wird empfohlen, den Teilnehmenden einen individuellen Ausdruck ihrer Testergebnisse bereitzustellen. Dieser Feedbackbogen sollte das Testdatum, den Namen der Testperson sowie eine detaillierte Auswertung der Leistungen in den Bereichen Lesen und Schreiben enthalten. Er bietet eine wertvolle Grundlage für die weitere Planung der Qualifizierung der Teilnehmenden und unterstützt Beratungsgespräche sowie die Empfehlung passender Fördermaßnahmen.

      Anwendung des lea.Dashboards zur Auswertung der Testergebnisse (Evaluation)

      Eine systematische Nutzung des lea.Dashboards kann die Dokumentation und weitere Auswertung der erhobenen Daten zielführend unterstützen, auch für wissenschaftliche Zwecke. Im Projekt #ABCforJobs diente das Dashboard primär der sicheren Ablage von Testdaten, die zum Projektende in die wissenschaftliche Evaluation der schriftsprachlichen Trainings eingeflossen sind. Besonders an diesem Projekt war, dass Testtermine zur Identifikation neuer Teilnehmender (Einstiegstest) kontinuierlich über die gesamte Laufzeit der Trainings erfolgten. Wie oben beschrieben, wurde je Testtermin ein eigener Kurs auf dem Dashboard angelegt und mit den vorab generierten Codes der potenziellen Teilnehmenden befüllt. Dieses Vorgehen diente der vollständigen Dokumentation. Es erwies sich jedoch mit fortschreitender Projektlaufzeit aus mehreren Gründen als weniger praktikabel: Testtermine fanden relativ häufig statt und umfassen meist nur sehr wenige, teilweise auch nur einzelne Personen. Das führte schnell zu einer großen Kursanzahl und machte das Dashboard unübersichtlich. Zusätzlich kam es häufig vor, dass Interessierte nicht zu ihren geplanten Testterminen erschienen. Somit entstanden in der Teilnehmenden-Liste Codes, die keine Testergebnisse aufwiesen. Teilweise entstanden so auch leere Kurse. Diese „Code- bzw. Kursgeister“ müssen regelmäßig gesichtet und bereinigt werden, um die weiteren Auswertungsprozesse nicht zu belasten.

      Tipp

      Bei kontinuierlicher Nutzung von otu.lea ist eine regelmäßige Pflege des Dashboards wichtig (z. B. Löschen oder Archivieren nicht genutzter vorab angelegter Testcodes).

      Das mit der Strategie der „Testtermin-Kurse“ ursprünglich verfolgte Ziel der klaren und strukturierten Dokumentation aller im Projekt erhobenen otu.lea-Tests erschwert die weitere Auswertung, wenn die Kurse nicht systematisch gepflegt werden. Dies kann durch regelmäßiges Archivieren ungenutzter Codes und Kurse sowie durch die Erstellung forschungsrelevanter Kurse, die kontinuierlich mit den passenden Codes bestückt werden, erfolgen. Beispielsweise könnte ein Kurs alle Codes umfassen, die als ungeeignet für

      das Training identifiziert wurden (Alpha-Level unter 3 oder über 4). Ein Kurs mit allen geeigneten Teilnehmenden ist dagegen nur zu empfehlen, wenn es keine inhaltlich relevanten Kleingruppen gibt oder es sich um kleine Stichproben handelt. Im Projekt #ABCforJobs boten sich beispielsweise Kleingruppen zu den oben beschriebenen unterschiedlichen Zielgruppen an. Dadurch wird nicht nur das Dashboard übersichtlicher, sondern es werden auch inhaltlich relevante Gruppenvergleiche möglich.

        Tipp

        Durch forschungsrelevant angelegte Kurse können gezielte Gruppenvergleiche besser visualisiert werden.

        Durch die wiederholte Testung von Teilnehmenden ist es möglich, individuelle Trainingseffekte zu evaluieren. Dazu ist es entscheidend, dass die Person sowohl zu Beginn als auch am Ende des Trainings den gleichen Schwierigkeitsgrad im jeweiligen Bereich (Lesen/Schreiben) wählt, damit die Ergebnisse vergleichbar sind. Andernfalls kann es beispielsweise passieren, dass beim ersten Testzeitpunkt nur Werte für das Alpha-Level 3 (Einfach) im Bereich Lesen vorliegen, beim zweiten Test hingegen nur Werte für Level 4 (Mittel). Der Vergleich kann zusätzlich erleichtert werden, indem pro Person immer nur ein Code verwendet wird, da die Ergebnisse auf der Individualebene im Dashboard erscheinen. Zu jeder Kann-Beschreibung zeigt das System an, ob sich die Leistung verschlechtert, gleichgeblieben oder verbessert hat. Diese Art der Ergebnisdarstellung mit Balken und verbalisierten Leistungsveränderungen erweist sich als sehr übersichtlich, besonders für Lehrende, die keine weiteren statistischen Auswertungen planen. Für eine optimale wissenschaftliche Nutzung fehlen in dieser Ansicht jedoch die konkreten Prozentwerte, die den Teilnehmenden direkt nach dem Test von otu.lea präsentiert werden.

          Was das Dashboard bisher noch nicht kann, ist eine klare Anzeige des in otu.lea gewählten Schwierigkeitsgrads. Dies lässt sich nur anhand des Vorhandenseins bzw. Fehlens von bestimmten Alpha-Levels erschließen. Im Bereich „Lesen“ ist das relativ eindeutig: „Einfach“ gibt Angaben zu Alpha-Level 3, „Mittel“ zu Level 4 und „Schwer“ umfasst Level 4 und 5. Der Bereich „Schreiben“ liefert auf den beiden unteren Schwierigkeitsstufen jedoch Angaben zu Alpha-Level 1 bis 4. Auf dem schwierigsten Niveau kommt Alpha-Level 5 dazu. Grundsätzlich ist es also möglich, die Testvariante aufgrund der Ergebnisse nachzuvollziehen. Ein zusätzliches Feld, das Auskunft über den Schwierigkeitsgrad gibt, würde die Verarbeitung jedoch erleichtern.

          Bisher ist ein Datenexport nur über die Druckoptionen in den Ansichten „Kurs“ und „Teilnehmende“ im PDF-Format möglich. Dadurch wird die Übertragung der Daten in andere Auswertungstools und somit statistische Berechnungen erschwert.

          Aktuell plant das lea.online-Team eine neue Projektphase, in der die entwickelten Tools weiter evaluiert und angepasst werden sollen. Im Zuge dieser Arbeiten wird auch geprüft, ob das Dashboard für die Nutzung zu Forschungszwecken weiter adaptiert werden kann. Beispielsweise durch die Erweiterung der Druckoptionen auf andere Formate wie Excel oder die Angabe des jeweiligen Schwierigkeitsgrads je nach Testergebnis.

          Zusammenfassend stellt das lea.Dashboard mit seinen umfangreichen Funktionen (langfristige auch anonymisierte Dokumentation von Ergebnissen, Darstellung von Lernerfolgen auf Individualebene, Ergebnisdarstellung auf Kursebene, Angaben zu Veränderungen in den Kann-Beschreibungen u. v. m.) ein sehr nützliches Tool für unterschiedliche Personengruppen dar. Einerseits profitieren Lehrende davon, da sie ihre Angebote auf Basis der Ergebnisse gezielt auf die Lernbereiche ihrer Teilnehmenden anpassen können. Durch die übersichtliche Visualisierung von Lernverläufen sind sie auch in der Lage, kleine Lernfortschritte aufzuzeigen und so die Lernmotivation ihrer Lernenden zu fördern. Andererseits können auch Wissenschaftler*innen bei der Dokumentation, Auswertung und Aufbereitung ihrer Daten durch das lea.Dashboard unterstützt werden.

          Ein Mann steht in einem Schnellrestaurant und wird von einem Fotografen mit professioneller Kamera und Beleuchtung aufgenommen.

          Dreh Testimonial-Videos

          Erlebte Selbstwirksamkeit: Qualitative Rückmeldungen der Teilnehmenden

          Bedeutung von Selbstwirksamkeit

          Selbstwirksamkeit beschreibt das Vertrauen der Teilnehmenden in ihre Fähigkeit, spezifische Aufgaben zu bewältigen – in diesem Fall im Kontext der schriftsprachlichen Kompetenzen. Durch digitale Tests wie otu.lea kann die Selbstwahrnehmung und die Fähigkeit der Teilnehmenden gestärkt werden, sodass sie Herausforderungen im Bereich Lesen und Schreiben aktiver angehen.

            Positives Feedback der Teilnehmenden

            • Motivation durch direkte Rückmeldung: Viele Teilnehmende empfanden die sofortige Anzeige ihrer Ergebnisse als motivierend und erfreulich, da sie ihre Fortschritte unmittelbar sehen konnten. Gleichzeitig konnten sie auch erkennen, in welchen Bereichen sie sich gezielt verbessern müssen (z. B. Groß- und Kleinschreibung, Doppelkonsonanz etc.), was eine fokussierte Weiterentwicklung ermöglicht.
            • Berufsbezogene Aufgaben: Der praktische Bezug zu realen Arbeitssituationen (z. B. in der Pflege oder in technischen Berufe) machte die Aufgaben nachvollziehbar und steigerte das Gefühl von Relevanz.
            • Digitalisierungserfolg: Die erfolgreiche Durchführung eines digitalen Tests wurde von Teilnehmenden oft als persönlicher Erfolg wahrgenommen, insbesondere bei geringer digitaler Vorerfahrung.
            • Förderung des Selbstbewusstseins: Teilnehmende berichten, dass sie durch die Tests ihre Stärken erkannten und somit Vertrauen in ihre schriftsprachlichen Fähigkeiten gewinnen würden.

              Herausforderungen und konstruktives Feedback der Teilnehmenden

              • Digitale Barrieren: Teilnehmende mit geringen digitalen Kompetenzen berichteten von Unsicherheiten bei der Bedienung der Plattform, was ihr Testerlebnis beeinflussen könnte.
              • Sprachliche Barrieren: Teilnehmende mit Deutsch als Zweitsprache äußerten Frustration, wenn unbekannte Begriffe auftauchen, die sie als unüberwindbare Hürde empfanden.
              • Lineare Teststruktur: Die Unmöglichkeit, zu vorherigen Aufgaben zurückzukehren, wurde teilweise als hinderlich empfunden.

              Wirkungen auf die Selbstwirksamkeit

              Die Durchführung des Tests hatte spürbare Auswirkungen auf die Selbstwirksamkeit der Teilnehmenden. Viele berichteten, dass sie durch die positive Erfahrung beim Bearbeiten der Aufgaben mehr Zufriedenheit und Freude empfunden haben. Dies spiegelte sich unmittelbar in einem gestärkten Selbstvertrauen wider. Darüber hinaus ließ sich beobachten, dass ein als Erfolg erlebter Test die Eigeninitiative förderte. Die Teilnehmenden waren anschließend eher bereit, sich auch in weiteren Bereichen aktiv mit ihrer Kompetenzentwicklung auseinanderzusetzen. Die positiven Rückmeldungen zur digitalen Durchführung wiesen zudem auf eine wachsende Offenheit und Akzeptanz gegenüber modernen Lern- und Prüfungsformaten hin.

              Tipp

              Digitale Tests wie otu.lea stärken die Selbstwirksamkeit der Teilnehmenden durch motivierende Rückmeldungen und praxisnahe Aufgaben. Sie erfordern jedoch Unterstützung bei digitalen und sprachlichen Hürden.

              Illustration eines blauen Stiftes mit lachendem Gesicht. Der Stift hat große, freundliche Augen, einen offenen Mund mit roten Lippen und wirkt wie eine Comicfigur.

              Handlungsempfehlungen zum Einsatz von otu.lea als Kompetenzfeststellungsverfahren

              Technische Aspekte:

              • Durchführung vorzugsweise an Laptops oder PCs zur besseren Übersichtlichkeit und Benutzerfreundlichkeit.
              • Stabiler Internetzugang erforderlich (bei Serverproblemen oder Internetausfällen ist keine analoge Test-Alternative verfügbar).
              • Grundkenntnisse im Umgang mit digitalen Geräten sind für eine effiziente Nutzung des Tools notwendig.

              Didaktische Hinweise:

              • Vorab: Einführung in die Bedienung des Tools sowie ggf. Durchführung einer Testphase zur Eingewöhnung der Teilnehmenden.
              • Bei Teilnehmenden mit Deutsch als Zweitsprache sollten sprachlich anspruchsvolle Begriffe (z. B. „Elan“, „Schlamassel“ o. Ä.) erklärt werden.

              Anwendungsmöglichkeiten:

              • Geeignet für Einstiegs-, Zwischen- und Abschlusstests in Kursen zur Förderung schriftsprachlicher Kompetenzen.
              • Ergebnisse können individuell oder kursübergreifend ausgewertet werden, um gezielte Fördermaßnahmen zu planen.

              Rückmeldung:

              • Direkte Rückmeldungen mit vereinfachten Darstellungen der Ergebnisse sind hilfreich, um Teilnehmende über ihre Fortschritte zu informieren und zu motivieren.

              Optimierungsmöglichkeiten:

              • Anpassung der Text-to-Speech-Funktion.
              • Zusätzliche Validierung von otu.lea für gering literalisierte DaF- und DaZ-Lernende, da die Schwierigkeitsstufen für diese Zielgruppen möglicherweise nicht sensitiv genug sind.
              • Erweiterung der Druckoptionen der Ergebnisse im lea.Dashboard für andere Formate (z. B. Excel).
              • Eindeutige Angabe des gewählten Schwierigkeitsgrades auf dem lea.Dashboard nach der Testdurchführung (z. B. Lesen „Mittel“).

                Förderung der Selbstwirksamkeit

                • Individuelle Rückmeldungen: Neben Prozentwerten können personalisierte Rückmeldungen, die die Stärken der Teilnehmende hervorheben, diese motivieren und ihr Vertrauen stärken.
                • Zusätzliche Unterstützung: Teilnehmende mit digitalen oder sprachlichen Unsicherheiten könnten vor dem Test eine Einführung erhalten, um Hemmungen abzubauen.
                • Positive Fehlerkultur und Einstufung statt Prüfung: Fehler sind ein natürlicher Teil des Lernprozesses und kein Zeichen des Scheiterns. Eine wertschätzende Haltung kann Teilnehmende ermutigen, ihre Fähigkeiten ohne Angst vor Misserfolg zu erproben. Da es sich nicht um eine Prüfung, sondern um eine Einstufung handelt, steht nicht das Bestehen im Fokus, sondern die Ermittlung des aktuellen Kenntnisstands. Dies hilft, passende Lernangebote zu identifizieren und die persönliche Weiterentwicklung gezielt zu fördern.
                • Förderung des Lernerfolgs: Nach dem Test sollten gezielt Weiterbildungsangebote aufgezeigt werden, um den Teilnehmenden das Gefühl zu geben, dass sie aktiv an ihrer Entwicklung arbeiten können.

                Quellenverzeichnis

                ABC-Projekt (2024): Oldenburger Diagnostikbögen, Weblink, www.abc-projekt.de/oldenburger-diagnostikboegen
                (abgerufen am 07.05.2025).

                LeaOnline (2024): Mit otu.lea das Alpha-Level bestimmen, YouTube-Video, www.youtube.com/watch?v=S87pq0R5coc&t=3s (abgerufen am 07.05.2025).

                LeaOnline (2024): Mit dem lea.Dashboard Förderbedarfe identifizieren, YouTube-Video, www.youtube.com/watch?v=1pFlra92dcA&t=5s (abgerufen am 07.05.2025).

                Ossner, Jakob/Rosebrock, Conelia/Scherf, Daniel (2021): DVV-Rahmencurriculum: Alpha-Kurzdiagnostik Schreiben und Lesen. 3. Aufl. Bonn: Deutscher Volkshochschul-Verband e. V., Weblink, www.grundbildung.de/downloads/alpha-kurzdiagnostik/lesen-schreiben-alpha-kurzdiagnostik-rc.pdf (abgerufen am 07.05.2025).

                Universität Bremen (2025): Handreichung zu lea.online, Weblink, https://blogs.uni-bremen.de/leaonline/files/Handreichung-Lea-Online.pdf (abgerufen am 07.05.2025).

                Universität Bremen (2025): Projekt lea.online, Weblink, https://blogs.uni-bremen.de/leaonline/(abgerufen am 07.05.2025).

                 

                Herausgegeben von

                GFFB gGmbH

                Projekt #ABCforJobs
                (Projektlaufzeit 01.11.2021 bis 31.10.2025)

                Mainzer Landstraße 349
                60326 Frankfurt am Main

                www.gffb.de

                Autorin:

                Süreyya Karabulut, GFFB gGmbH

                Co-Autorinnen:

                Eveline Bader, Deutsches Institut für Erwachsenenbildung – Leibniz-Zentrum für Lebenslanges Lernen e.V.
                Olivia Beneke, Zentrum für Weiterbildung gGmbH

                Diese Publikation wurde im Rahmen der Nationalen Dekade für Alphabetisierung und Grundbildung 2016-2026 mit Mitteln des Bundesministeriums für Bildung, Familie, Senioren, Frauen und Jugend unter dem Förderkennzeichen W-1505A-AOG gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei der Autorin/beim Autor.

                Alle Rechte vorbehalten.

                © August 2025

                Logoleiste der Alpha Dekade 2016-2026 und des Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend