AGRONOMIE

Définition

Au sens strict du terme, agronomie signifie la « règle des champs ». L’agronomie est une science dont l’objet est l’étude des relations entre les plantes, le climat, le sol, et l’environnement dans lesquels elles se développent.