A definição de restaurar é o conjunto de atividades que visam restabelecer danos causados pelo tempo ou doenças, como cárie. Isso quer dizer que nossos tratamentos são baseados na busca por devolver a beleza e função que foi criada pela natureza.
Então quando fazemos uma restauração em um dente da frente ou do fundo a fazemos com o maior número de detalhes possível para que se assemelhe ao dente natural.