feat: change paragraph

pull/13/head
Nicolas Doby 2023-01-05 19:20:28 +01:00
parent 37a5dd6870
commit a6dc95f890
1 changed files with 7 additions and 5 deletions

View File

@ -55,11 +55,13 @@ On-Premises on n'a plus de contrainte et donc on se pose moins de question. C'es
possible et économiquement viable, de manipuler des téraoctets de données. Ce qui a pour effet de consommer beaucoup de
RAM (mémoire vive ou mémoire à court terme) et de CPU (capacité de calcul).
De manière générale, je constate que les bonnes sources d'information sont récupérées dans la datawarehouse. En
revanche, régulièrement je vois des requêtes du type "select * from .." (comprendre "récupère toutes les données") et
seulement ensuite on filtre pour récupérer une infime partie. Pas besoin d'être informaticien ou informaticienne pour
comprendre le problème. Ou encore, je vois la création de tables intermédiaires pour calculer des tables intermédiaires
et ensuite calculer. Cela se traduit par une grande quantité de lignes de code et donc de la puissance machine inutile.
De manière générale, je constate que les bonnes sources d'information sont récupérées dans la datawarehouse.
En revanche, régulièrement je vois des requêtes récupérant une grosse quantité de données pour ensuite les filtrer et/ou
les transformer en dehors de la requête : directement dans le code du programme sans utiliser le moteur de requêtage.
Ceci charge toutes les données et donc une grosse montée en RAM. Le CPU est fortement utilisé également. Ces lourds
traitements peuvent être évités en exploitant les capacités du serveur de base de données ; celui-ci étant prévu pour.
Ou encore, je vois la création de tables intermédiaires pour calculer des tables intermédiaires
et ensuite calculer. Cela se traduit par une grande quantité de lignes de code et ainsi de la puissance machine inutile.
De plus, comme nous perdons la maîtrise de ce qui est fait par ces différents services, nous ne sommes plus en mesure
d'évaluer correctement les impacts environnementaux de cette activité.