Fußball = Männersache?

Es war vor langer, langer Zeit, in einem anderen Deutschland, als wir es heute kennen. Die dunklen Zeiten waren noch nicht weit weg, als das deutsche Männerteam erstmals Fußballweltmeister wurde und das ganze Land in Ekstase versetzte. Neue Zeiten? Nicht ganz, denn den Herren vom DFB fiel nichts Besseres ein, als den Frauenfußball in ihren […]

Lesen Sie weiter