Koniec świata mężczyzn

  • Facebook
  • Twitter
  • Wykop
  • Mail
Koniec świata mężczyzn
Foto: Glow Images

W USA więcej kobiet niż mężczyzn zajmuje stanowiska menadżerskie, kończy studia oraz zajmuje większość wszystkich miejsc pracy.

Posłuchaj

Koniec świata mężczyzn
+
Dodaj do playlisty
+

W Europie kobiety rządzą wielkim firmami i państwami, nawet w takich krajach jak Indie czy Chiny, gdzie do niedawna urodzenie dziewczynki było tragedią rodzinną – kobiety zaczynają zdobywać wpływy. Czy na naszych oczach rozpada się świat zdominowany przez samców? A jeśli tak, to co z tego wynika dla obu płci? Na te pytanie odpowiadali: dr Małgorzata Starczewska-Krzysztoszek, gówna ekonomista Polskiej Konfederacji Pracodawców Prytwatnych "Lewiatan" i korespondent Polskiego Radia z Indii Krzysztof Renik.

Polecane