Deutschlands Historie bei Fußball-Weltmeisterschaften

Deutschland

Deutschland gehört spätestens seit dem Titelgewinn im Jahr 2014 in Brasilien wieder zur Elite des internationalen Fußballs. Aber auch die historische Bilanz des deutschen Fußballs kann sich sehen lassen. Insgesamt vier mal konnte Deutschland den Weltmeisterschaftspokal mit nach Hause nehmen und darüber hinaus hat man sich sehr häufig unter den besten drei Teams platziert.

Weiterlesen …