
Dezimalrechner verfolgen den Ansatz, die geläufigen Dezimalzahlen im Computer als Sequenzen von Dezimalziffern darzustellen und damit Rechenoperationen auszuführen, anstatt die Werte in Binärzahlen umzuwandeln. Motiviert wurde diese Vorgehensweise dadurch, dass in vielen Währungen mit Hundertsteln der Grundeinheit gerechnet wird, z. B. mit Cent bei Euro und Dollar. Alle Centbeträge ― außer 0,25 & 0,50 & 0,75 ― sind aber im Dualsystem unendliche periodische Brüche, die nur abgeschnitten in Speichern und Registern abgelegt werden können. Ungenauigkeiten und sich fortpflanzende Rundungsfehler wollte man im Finanzwesen vermeiden. Das bekannteste Konzept wird ausführlich im Artikel BCD-Code und BCD-Arithmetik beschrieben.
In der frühen Phase der Geschichte der Computer wurden derartige Rechenmaschinen oftmals realisiert wie der ENIAC, der UNIVAC I, die IBM 1401, die IBM 650 und die IBM 7070. Bei der IBM 1401 wurde eine Kombination aus dezimaler und binärer Arithmetik verwendet. Später waren beim Einsatz von Mikroprozessoren dann Instruktionen vorhanden, BCD-codierte Dezimalzahlen in eine Binärzahl umrechnen zu lassen. Rechner der Intel 80x86 Familie beherrschten dies.
