Logo DizionarioItaliano.it

Significato di Dermatologia

Dermatologia

s.f. branca della medicina che studia le malattie della pelle e dei suoi annessi (peli, unghie, ghiandole sebacee ecc.).

Altre definizioni correlate di Dermatologia

Ultime ricerche