Sujet surement déjà traité ailleurs sur ce forum, désolé si ma question est un doublon

Je calibre des cartes interface 0-10 V (patrick07) dont les entrées sont connectées à des PT1000, sorties des cartes connectées aux entrées analogiques d'un M3 XD26 24VDC. J'affiche sur le M3 la donnée brute d'entrée. Pour une tension d'entrée de 0 à 10 V, en 10 bits (1024 pas), chaque pas correspond à environ 10 mV (0.1°C pour une gamme 0-100°C)
Je constate que la résolution réelle semble 3 fois moindre que les 10 bits annoncés, à savoir, que les 1024 pas sont bien là mais que la valeur oscille largement tant que ce n'est pas une valeur correspondant à un "multiple de 3", c.a.d que par exemple, pour calibrer le 0 (offset), j'obtiens des valeurs stables de 0, 3, 6, etc., toute autre valeur est bien affichée mais fugitivement (instable).
Au départ j'utilisais des entrées filtrées et ai pensé que les oscillations venaient du filtre, filtre supprimé rien ne change. A mon avis les oscillations ne viennent pas de la carte interface dans la mesure où lorsque la valeur est "juste" (Leblanc) ça n'oscille pas du tout (mesure dans un stock relativement volumineux).
La doc Crouzet indique que le LSB est de 29 mV, que la résolution est de 10 bits à tension d'entrée max et que cette tension d'entrée max est de... 30 V

Cette doc est franchement curieuse (en 10 bits un LSB de 29 mV donne une pleine échelle à presque 30 V), que dire du choix 0-10V ou potentiométrique se référençant à la tension d'alim (24 VDC) ???
Merci pour vos réponses
Rémy