Wie alles begann Erst seit etwas mehr als hundert Jahren dürfen in Deutschland Frauen das Fach Medizin studieren. Sie sind inzwischen dabei, die Männer in den Medizinberufen an Zahl zu überflügeln. Doch bereits in der Antike waren Frauen als Ärztinnen tätig. Sie arbeiteten nicht nur als Chirurginnen, Zahnärztinnen, Allgemeinmedizinerinnen, Gynäkologinnen, sondern auch als Heb...