Un voltmetro, noto anche come voltmetro, è uno strumento utilizzato per misurare la differenza di potenziale, o tensione, tra due punti in un circuito elettrico o elettronico. Alcuni voltmetri sono destinati all'uso in circuiti a corrente continua (CC); altri sono progettati per circuiti in corrente alternata (AC). Voltmetri specializzati possono misurare la tensione in radiofrequenza (RF).
Un voltmetro analogico di base è costituito da un galvanometro sensibile (misuratore di corrente) in serie con un'elevata resistenza. La resistenza interna di un voltmetro deve essere alta. Altrimenti assorbirà una corrente significativa e quindi disturberà il funzionamento del circuito in prova. La sensibilità del galvanometro e il valore della resistenza in serie determinano l'intervallo di tensioni che il misuratore può visualizzare.
Un voltmetro digitale mostra la tensione direttamente come numeri. Alcuni di questi misuratori possono determinare valori di tensione a diverse cifre significative. I pratici voltmetri da laboratorio hanno intervalli massimi da 1000 a 3000 volt (V). La maggior parte dei voltmetri prodotti in commercio ha diverse scale, aumentando in potenze di 10; ad esempio, 0-1 V, 0-10 V, 0-100 V e 0-1000 V.
Un oscilloscopio può essere utilizzato per misurare basse tensioni; lo spostamento verticale corrisponde alla tensione istantanea. Gli oscilloscopi sono eccellenti anche per la misura delle tensioni picco e picco-picco nelle applicazioni AC e RF. I voltmetri per misurare differenze di potenziale elevate richiedono sonde, cavi e isolatori per impieghi gravosi.
Nella pratica informatica, i voltmetri di laboratorio standard sono adeguati perché le tensioni incontrate sono moderate, di solito tra 1 V e 15 V. I monitor a tubo catodico (CRT) funzionano a diverse centinaia di volt. Un tipico voltmetro da laboratorio può indicare queste tensioni, ma le unità CRT devono essere riparate solo da tecnici qualificati perché le tensioni sono sufficientemente alte da essere letali.