courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1
                Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2021/01/04 16:46] – leofuc | courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2025/09/28 20:16] (aktuell) – Externe Bearbeitung 127.0.0.1 | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| - | ===== AB10-1: Neutrale Plattformen? | + | ===== AB11-1: Neutrale Plattformen? | 
| - | ** | + | |
| - | __YouTube, die Radikalisierungsmaschine? | + | |
| - | **1a) Tragen  | + | **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen  | 
| - | Achten Sie darauf dass max. 5 Personen (in Gruppe  | + | ** | 
| + | __ 1) YouTube, die Radikalisierungsmaschine? | ||
| - | https:// | ||
| - | **1b) Erstellen Sie mit Hilfe einer temporären Email-Adresse (M10-1:   | + | **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses: | 
| - | * Suchen Sie den YouTube Kanal „Malenki“. Starten Sie mit dem Video „Multikultipropaganda für Kids“. | + | * Suchen Sie den YouTube Kanal „kulturlabor“. Starten Sie mit dem Video „„Richtig rechte Comics!“. | 
| - |   * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (auch gerne „lautlos“ im Hintergrund). Dann klicken Sie weiter  | + |   * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund  | 
| - | * Algorithmus verfolgen: Dokumentieren Sie ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren. | + | * Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren. | 
| - | **1c) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden  | + | **1b) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden  | 
| - | **1d) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https:// | + | **1c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https:// | 
| Zeile 25: | Zeile 23: | ||
| ODER | ODER | ||
| - | **__Facebook  | + | **__2) Facebook  | 
| - | + | ||
| - | **2a) Tragen sie sich in folgendem GoogleDocs auf Seite zwei mit ihren Initialen ein.** | + | |
| - | + | ||
| - | Achten Sie darauf dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten:  | + | |
| - | https:// | ||
| - | **2b) Spielen Sie dieses 10-Minütige Online-Spiel https:// | + | **2a) Spielen Sie dieses 10-Minütige Online-Spiel  | 
| - | Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, | + | Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, | 
| - | **2c) Lesen Sie den kurzen  | + | **2b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https:// | 
| - | **2d) Schauen sie sich den Ausschnitt des Videos [[https:// | + | **2c) Schauen sie sich den Ausschnitt des Videos [[https:// | 
| Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). | Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). | ||
| - | **2e) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. | + | **2d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. | 
| ** | ** | ||
| Zeile 60: | Zeile 53: | ||
| // | // | ||
| - | Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. https:// | + | Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”.  | 
| // | // | ||
| // | // | ||
| - | Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. https:// | + | Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets.  | 
| // | // | ||
| // | // | ||
| - | Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. https:// | + | Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection.  | 
| // | // | ||
courses/studierende/l/s-rassismus/arbeitsblatt/ab10-1.1609775179.txt.gz · Zuletzt geändert: 2025/09/28 20:26 (Externe Bearbeitung)
                
                