Définition informatique

Le terme calcul a son origine dans le mot latin computatio . Ce mot nous permet d’aborder la notion de calcul en tant que compte ou calcul, mais il est généralement utilisé comme synonyme d’ informatique . De cette manière, on peut dire que le calcul associe des connaissances et des méthodes scientifiques .
Ces systèmes d’information automatisés sont réalisés au moyen d’outils spécifiques créés à cet effet, ordinateurs ou ordinateurs .

Informatique

Les experts disent que l'origine de l'informatique remonte à plus de trois cents ans, quand ils ont commencé à développer des machines centrées sur diverses tâches de calcul. En 1623, Wilhelm Schickard a inventé la première calculatrice mécanique .

Cependant, des ordinateurs capables de processus multiples (c'est-à-dire non limités à des calculs de type mathématique) ont commencé à apparaître dans les années quarante. L'utilisation massive et domestique de ces machines ne viendrait que dans les années 80, avec la production d' ordinateurs personnels ou de PC . La fin du 20ème siècle, avec la montée d' Internet, a donné un nouvel élan à tout ce qui touche à l' informatique .

Quant à la théorie de l'informatique, il faut dire qu'elle est considérée comme une science centrée sur l'étude et la définition formelle des calculs. Cette discipline définit le calcul comme le produit d'une solution ou d'un résultat, en particulier au sens mathématique / arithmétique du concept, à l'aide d'un processus ou d'un algorithme.

En d’autres termes, l’informatique est la science qui étudie et systématise les ordres et les activités dictés dans une machine, en analysant les facteurs qui participent à ce processus, parmi lesquels les langages de programmation, qui permettent de générer une liste de données. soigné et compréhensible pour la machine.
Au cours du processus, deux types d’analyses sont effectuées, l’une organique (traduction des indications dans un langage compréhensible par l’ordinateur) et une fonctionnelle (collecte des informations disponibles au cours de l’automatisation).

Pour parler d’informatique, il est nécessaire de définir au préalable le concept d’ algorithme . Un algorithme est un ensemble d’étapes déterminées, structurées dans le temps, qui répondent à une liste de règles claires et qui visent à résoudre un problème particulier. Doit remplir certaines conditions: être définies (claires, détailler chacune des étapes nécessaires pour rendre non ambiguë), finies (les actions qui les composent doivent être conclues de manière logique et claire), avoir zéro entrée ou plus et avec une ou plusieurs entrées. plus de résultats, et soyez efficace (utilisez exactement ce qui est nécessaire pour résoudre le problème, utilisez le minimum de ressources et soyez capable de l'exécuter efficacement).

L'intelligence artificielle liée aux ordinateurs, l'informatique graphique et en réseau, les systèmes de bases de données, les mathématiques informatiques et différents types d'ingénierie associés à cette machine font également partie des domaines inclus.

Actuellement, le développement de l'informatique et des technologies associées a permis le développement de divers types de documents, l'envoi et la réception de courrier électronique, la création de dessins numériques, l'édition audio et l'impression de livres, entre autres. beaucoup d'autres processus.

Il est à noter que la technologie utilisée en informatique est de type microélectronique avec des composants physiques (processeur, mémoire, etc.) et logiques (système d'exploitation et programmes).

Recommandé