Was AI während eines Online-Tests nicht macht
KI, die in der Live-Prüfung eingesetzt wird, funktioniert wie ein Rauchmelder, der den Menschen auf ein mögliches Problem aufmerksam macht, wobei dann der Mensch die Entscheidungen trifft und nicht die Technologie.
Künstliche Intelligenz (KI) als Ergänzung zum Menschen im Live-Poctoring
Künstliche Intelligenz – KI. Das mag beängstigend klingen. Und sie ist auch alles andere als perfekt.
Wenn man also über den Einsatz von KI als Teil der Test- und Prüfungsaufsicht spricht, als Teil des Systems, das Betrug verhindert und aufdeckt, erschrecken die Leute. Das ist fair. Aber es ist auch einschränkend und verfehlt die Tiefe dessen, was KI-Tools bei der Überwachung von Remote-Tests tun – und besser noch, nicht tun.
Lassen Sie uns einen kurzen Blick darauf werfen.
Zu Beginn ist es hilfreich, Fragen zu KI in der Testüberwachung mit dem Gedanken zu beantworten, dass die bei einem Test eingesetzten Ki-Tools und -Techniken sehr unterschiedlich sein können. Die Skala reicht von keinerlei bis hin zur Genauigkeit und Geschwindigkeit der Tastenschläge und vieles mehr genau überwachen und analysieren können. Nur weil ein Remote-Test über eine Proctoring-Lösung verfügt, heißt das nicht, dass er KI verwendet.
Es ist auch wichtig zu bedenken, dass die Position eines bestimmten Tests im Bereich der Überprüfungs- und Überwachungsmethoden in hohem Maße davon abhängt, was der Testanbieter, die Schule, will. Die Prüfungskräfte halten sich an die Regeln und Verfahren, die von den Schulen oder Professoren vorgeben werden, sie erfinden nicht ihre eigenen oder verwenden Tools zur Betrugsbekämpfung, die von den Schulen nicht gewünscht werden. Mit anderen Worten: Wenn bei einem bestimmten Test KI zum Einsatz kommt, dann sicher deshalb, weil die Schule darum gebeten hat – und wahrscheinlich aus gutem Grund.
KI verstehen: Was es ist und bewirkt
Lassen Sie uns jetzt einen Blick darauf werfen, was KI überhaupt ist und was sie tut.
KI ist eine Maschine, die Informationen sammelt und bewertet. In dieser Hinsicht ist es genau wie eine Prüfung selbst, es sammelt Informationen und bewertet sie entlang einer festgelegten Skala. Was KI von anderen Systemen unterscheidet, ist die Tatsache, dass sie aus Fehlern und richtigen Entscheidungen „lernen“ kann. KI-Systeme werden mit zunehmender Nutzung immer genauer.
Das bringt uns zu dem, was Ki bei Remote-Tests nicht tut. Sie entscheidet nicht – und ich kann nicht genug betonen – wer betrügt. Sie „markiert“ nicht einige Verhaltensweisen als Betrug und lässt einen Schüler durchfallen. Es gibt keine feste Punktzahl für Schummeln oder Nicht-Schummeln – schauen Sie zweimal in einer Minute auf Ihren Bildschirm und Sie sind in Ordnung, tun Sie es dreimal und Sie fallen durch. So etwas gibt es einfach nicht.
Und das ist der Grund: Die KI-Systeme, die wir bei der Prüfungsaufsicht einsetzten, alarmieren einfach Menschen. Der Mensch trifft die Entscheidung. Vielleicht macht das nicht jeder Anbieter von Prüfungssoftware so, aber sie sollten es tun.
Lassen Sie mich ein Beispiel geben. Wenn ein Schüler komplexe technische Fragen sehr schnell beantwortet, schneller als 95,5% aller anderen Schüler, kann das verdächtig sein. Es kann darauf hindeuten, dass er die Fragen und Antworten im Voraus hatte. Es kann aber auch darauf hindeuten, dass der Testteilnehmer einfach ein gut vorbereitetes Genie ist. In diesem Beispiel könnte ein KI-System einen Prüfungsverantwortlichen auf das ungewöhnliche Ereignis aufmerksam machen, aber der Prüfungsverantwortliche und letztendlich der Lehrer des Testteilnehmers werden entscheiden, ob es sich um ein Genie oder einen Betrüger handelt.
Dieser letzte Punkt ist sehr wichtig. Selbst wenn dieser Beispielschüler den KI-Alarm auslöst, weil er zu schnell antwortet, und selbst wenn ein Korrektor den Lehrer alarmiert, kann der Lehrer entscheiden, dass es in Ordnung ist. Vielleicht weiß er, dass der Schüler in der Tat ein Meister seines Fachs ist. Oder er entscheidet, dass der Schüler häufig Unterrichtsstunde verpasst hat und deshalb weitere Nachforschungen angestellt werden müssen. Der Punkt ist, dass Lehrer und Schulpersonal entscheiden, was ein Fehlverhalten ist und was nicht, sie entscheiden, was zu tun ist – und nicht die KI.
In dieser Hinsicht ist KI wie ein Rauchmelder in Ihrem Haus. Cleverer, ja, aber er erfüllt eine sehr ähnliche Funktion. Ein Rauchmelder verbringt den ganzen Tag und die ganze Nacht damit, nach einer Sache zu suchen, und wenn er sie findet, wird ein Alarm ausgelöst. Aber ein Mensch muss dann entscheiden, ob jemand den Hackbraten zu lange im Ofen gelassen hat oder ob es an der Zeit ist, die Kinder und Hunde einzusammeln und das Haus zu verlassen. Wie ein Rauchmelder kann die KI Menschen auf Dinge aufmerksam machen, die sie vielleicht übersehen. Aber die Entscheidung trifft der Mensch.
Und weil die KI aus dem lernt, was sie „richtig“ macht, werden die Tools weniger Fehler machen und seltener Fehlalarme auslösen, wenn sie ihre Arbeit tun. Wo alte KI-Systeme vielleicht ein ungewöhnliches Ereignis registriert haben, als jemand nieste, wird sich das System nach einige Malen der „Korrektur“ durch den Menschen selbst korrigieren und keinen Schnupfen mehr hervorheben. Das ist eine gute Sache. Wir wollen, dass KI-Systeme – eigentlich alle Systeme – genau sind und besser werden.
Und wenn man echte Menschen mit KI zusammenbringt, kann die Zusammenarbeit sehr zuverlässig sein. Der Mensch kann die KI korrigieren und verbessern, und die KI kann den Menschen auf Dinge aufmerksam machen, die er vielleicht übersieht. Im Laufe der Zusammenarbeit werden die Menschen besser und die KI auch. Das schmutzige Geheimnis ist, dass die KI, besonders bei der Online-Prüfung, genauso oft eingesetzt wird, um unseren Prüfern zu helfen, besser zu werden, wie sie eingesetzt wird, um Betrug zu „erwischen“.
Bei der Prüfung und Bewertung gibt es keine „Punktzahl“, anhand derer ein KI-System Betrug feststellen könnte. Und es gibt absolut kein System, in dem eine solche „KI-Punktzahl“ eine Note oder ein Testergebnis bestimmen würde. Wenn Schulen oder Professoren versuchen, Prüfungs- oder KI-Tools auf diese Weise ohne menschliche Entscheidungsfindung einzusetzen, sollten sie das nicht tun. Die Systeme wurde nicht dafür entwickelt und können das wahrscheinlich auch nicht.
Zusammenfassung
Die Kernaussage ist, dass die KI-Systeme, die bei der Online-Testüberwachung eingesetzt werden, nicht allgegenwärtig sind, sie sind oft sehr fokussiert und immer nur ergänzend zum Menschen, nicht an dessen Stelle. Sie können zwar Dinge erkennen, die Menschen möglicherweise übersehen, aber Robocop beobachtet niemanden bei einem Test. Big Brother kann Sie nicht enttäuschen. Die KI kann das einfacht nicht.
Unser Team an E-Learning Experten bietet Ihnen zuerst eine umfassende Beratung und konzeptionelle Schritte für Ihre E-Learning-Plattform.
Unser Ziel: Ihnen das beste Resultat zu liefern, von Anfang an.
Ihre Lernenden zu begeistern und zu engagieren. Lösungen zu entwickeln die Ihren individuellen Anforderungen entsprechen.
Wir sind Experten für E-Learning Technologie. Wählen Sie uns, um Ihre kundenspezifische LMS Lösungen anzubieten.
ELEARNING ACADEMY: KOSTENLOSES WISSEN, ERSTKLASSIGE SERVICES FÜR IHREN ERFOLG!
Entfesseln Sie das volle Potenzial Ihrer Mitarbeiter, Kunden und Geschäftspartner mit PREGA Design! Als führende Kraft im E-Learning bieten wir maßgeschneiderte Lösungen mit LMS LearnDash für Unternehmen im D-A-CH-Raum. Setzen Sie auf Exzellenz und gestalten Sie gemeinsam mit uns die Zukunft des innovativen Lernens!
Vertrauen Sie auf unser E-Learning-Team! Wir bieten nicht nur umfassende Beratung, sondern entwickeln auch maßgeschneiderte Konzepte, die perfekt zu Ihren individuellen Anforderungen passen. Lassen Sie uns gemeinsam Ihre Vision in eine effektive Lernrealität verwandeln!
wir bauen Deine Lern Community
„Entdecke mit uns die Kraft der Gemeinschaft und des sozialen Lernens! Tauche ein in eine Welt voller Erfolg und Zusammenhalt – sei dabei, wenn wir gemeinsam Großes erreichen!“
Entdecke unser Angebot und erlebe eine revolutionäre Art des Lernens!