Eine kurze Geschichte des Frauenfußballs
Frauenfußball hat eine erstaunliche Geschichte hinter sich. Bereits im 19. Jahrhundert spielten Frauen in England Fußball. Es dauerte jedoch lange, bis die Sportart gesellschaftlich anerkannt war.
In Deutschland wurde Frauenfußball sogar bis 1970 vom DFB verboten. Kaum zu glauben, oder? Doch die Frauen ließen sich nicht aufhalten. 1970 fiel das Verbot, und seitdem hat der Frauenfußball stetig an Bedeutung gewonnen. Heute gibt es internationale Turniere wie die Frauen-WM, bei denen die Stadien fast genauso gefüllt sind wie bei den Männern.