Är det bara jag som inte vill ha oral och analsex?
Vill varken ha det eller utföra det.
Tycker det verkar ohygieniskt och onaturligt. Jag ser sex som något romantiskt och där ingår inte oral o analsex för mig. Jag står för vad jag tycker men ibland känner jag mig så jävla... annorlunda.
Är det bara jag som tycker såhär som kvinna?
Känns som att alla män vill utföra analsex och ha oralt. Är det så? :(
Tack för svar.