Sie befinden sich im Service: RWTHmoodle

Automatische Abgabenevaluation einrichten

Automatische Abgabenevaluation einrichten

Kurzinformation

Das Virtual Programming Lab erlaubt das Erstellen von Testfällen, mit denen die Studierendenabgaben automatisch evaluiert werden können. Für das Einrichten der automatischen Evaluation sind vier Schritte notwendig:

  1. Testfälle erstellen
  2. Ausführungsoptionen festlegen
  3. Erforderliche Dateien erstellen
  4. Musterlösung testen

Diese Anleitung erläutert das Vorgehen anhand einer einfachen Programmieraufgabe, bei der ein "Hello world"-Programm in Python geschrieben werden soll. Wir empfehlen Ihnen den Einsatz einer solchen einfachen Aufgabe, damit die Studierenden sich mit der Bedienung vertraut machen können.


 Detailinformation

Inhaltsverzeichnis

1. VPL-Aufgabe vorbereiten
2. Testfälle erstellen
3. Ausführungsoptionen festlegen
4. Erforderliche Dateien erstellen
5. Automatische Evaluation mit einer Musterlösung testen

 

1. VPL-Aufgabe vorbereiten

Erstellen Sie zunächst eine VPL-Aufgabe mit den folgenden Einstellungen:

  • Name - Python: Hello World
  • Kurzbeschreibung - Hello World in Python 3
  • Beschreibung - Schreiben Sie ein Python-Programm, das "Hello World!" in der Konsole ausgibt. Dabei sollen nur der Text ohne Anführungszeichen sowie eine leere Zeile nach der Ausgabe erscheinen.
  • Abgabezeitraum -Verfügbar vom Datum des heutigen Tages an. Abgabetermin ist ein Datum in der Zukunft.
  • Maximale Anzahl an Dateien - 1
  • Bewertung - Bewertungstyp "Punkte", Maximalpunktzahl 100.

Belassen Sie alle weiteren Einstellungen im Default. Klicken Sie "Speichern und anzeigen", um die VPL-Aufgabe zu öffnen.

 

2. Testfälle erstellen

Sobald die Aufgabe erstellt wurde, erstellen Sie die Testfälle, mit denen die Korrektheit der Abgaben automatisch geprüft werden soll.

  1. Öffnen Sie die VPL-Aufgabe.
  2. Klicken Sie in der VPL-Aufgabe auf das Zahnrad innerhalb des weißen Kastens, um die VPL-Administration zu öffnen.
  3. Wählen Sie hier "Testfälle". Es öffnet sich ein Editor.
  4. Geben Sie im Editor den folgenden Testfall ein:
    Case = Test 1
    output = "Hello World!


    "
    Die erste Zeile gibt dem Testfall einen Namen. Sie können mehrere Testfälle für eine Aufgabe erstellen. Die zweite und dritte Zeile überprüfen die Konsolenausgabe. Durch das Setzen des Anführungszeichens in der vierten Zeile wird sichergestellt, dass eine leere Zeile in der Konsole ausgegeben wird.
  5. Klicken Sie auf das Diskettensymbol, um die Erstellung dieses Testfalls abzuschließen.

Kehren Sie durch einen Klick auf den Titel der VPL-Aufgabe in der Breadcrumb-Navigation (= "Python: Hello World") zurück zur Aufgabe.

 

3. Ausführungsoptionen festlegen

Im nächsten Schritt legen Sie fest, wie die Abgaben der Studierenden auf dem Jailserver ausgeführt und evaluiert werden sollen.

  1. Klicken Sie in der geöffneten VPL-Aufgabe erneut auf das Zahnrad innerhalb des weißen Kastens, um die VPL-Administration zu öffnen.
  2. Wählen Sie hier "Ausführungsoptionen". Es öffnet sich eine neue Seite mit den Optionen für das Ausführen der Abgabedateien:
    • Basiert auf -
    • Run script - Lassen Sie diese Option auf "autodetect" oder wählen Sie ein spezifisches Skript aus, das für die Abgabe ausgeführt werden soll.
    • Debug script - Lassen Sie diese Option auf "autodetect" oder wählen Sie ein spezifisches Debug-Skript aus, das für die Abgabe ausgeführt werden soll.
    • Ausführen - Aktiviert das Ausführen auf dem VPL-Executionserver. Setzen Sie diese Option für das Übungsbeispiel auf "ja".
    • Debuggen - Aktiviert den eingebauten Debugger. Setzen Sie diese Option für das Übungsbeispiel aus "nein".
    • Evaluieren - Aktiviert das automatische Evaluieren der Abgabe. Setzen Sie diese Option für das Übungsbeispiel auf "ja".
    • Nur bei Abgabe evaluieren -
    • Automatische Bewertung -

Mit "Einstellungen speichern" sichern Sie die Auswahl. Sobald Ihnen RWTHmoodle "Einstellungen wurden gespeichert" zurückmeldet, klicken Sie in der Breadcrumb-Navigation auf den Aufgabentitel (= "Python: Hello World"), um zur Übersichtsseite der Aufgabe zurückzukehren.

 

4. Erforderliche Dateien erstellen

Im letzten Schritt legen Sie fest,

  1. Klicken Sie in der geöffneten VPL-Aufgabe erneut auf das Zahnrad innerhalb des weißen Kastens, um die VPL-Administration zu öffnen.
  2. Wählen Sie hier "Erforderliche Dateien". Es öffnet sich eine Editorseite zusammen mit einem Fenster "Neue Datei erstellen".
  3. Geben Sie als Dateiname "hello.py" ein und klicken Sie anschließend auf "OK".
  4. Im Editor können Sie ihren Studierenden ein Codekonstrukt vorgeben, das unter dem gerade vergebenen Dateinamen gespeichert wird. Wir belassen es hier bei einer leeren Datei und speichern die Datei mit einem Klick auf die Diskette ab.

Kehren Sie durch einen Klick auf auf den Aufgabentitel (= "Python: Hello World") in der Breadcrumb-Navigation zur Übersichtsseite der Aufgabe zurück. Die automatische Evaluierung ist nun erstellt.

 

5. Automatische Evaluation mit einer Musterlösung testen

Abschließend können Sie die automatische Evaluation mittels einer Musterlösung überprüfen.

  1. Klicken Sie in der geöffneten VPL-Aufgabe auf de Reiter "Testaktivität" und dann auf "Bearbeiten".
  2. Geben Sie nun print("Hello World!") in den Editor ein.
  3. Klicken Sie zum Speichern zunächst auf das Disketten-Symbol.
  4. Klicken Sie anschließend auf das Raketen-Symbol, um das Programm auszuführen.
  5. Durch einen Klick auf den Haken mit der danebenstehenden 0 führen Sie den automatischen Test aus. Sie sollten nun auf der rechten Seite die folgende Ausgabe finden:
    • |  1  test run/ 1  test passed |

 Zusatzinformation