Hallo liebe Community.
Was ich mich immer wieder frage und schon länger mal drüber nachgedacht habe. Haben die Medien die Politik in der Hand? Jetzt nicht nur auf Deutschland gesehen, sondern weltweit.
Es ist doch so, was die Medien nicht bringen wollen, dass erfahren die Bürger auch nicht.
Was denkt ihr darüber?