Što je primitivni tip podataka?

Primitivni tip podataka je termin iz računalne znanosti koji se koristi za opisivanje dijela podataka koji prema zadanim postavkama postoji unutar računalnog programskog jezika. Obično računalni programer ne može promijeniti vrijednosti ovih vrsta podataka. Na primjer, ako je računalni program bio zid od opeke, primitivni tipovi podataka bili bi posebna vrsta cigle koja se ne bi mogla razbiti ili dodatno poboljšati. Primjer primitivnog podatka je znak “a”; ovaj znak znači sam za sebe i koristi se za predstavljanje kompliciranijih informacija kombinirajući ih s drugim informacijama. Dok se precizni primitivni tipovi podataka koji su dostupni u bilo kojem računskom programskom jeziku razlikuju od jezika do jezika, cijeli su brojevi i znakovi osnovni primitivni tipovi podataka dostupni u većini njih.

“Znak” je jedan od osnovnih primitivnih tipova podataka dostupnih u većini računalnih programskih jezika, a ponekad se spominje i u skraćenom obliku “char”. Ova vrsta podataka uključuje većinu pojedinačnih simbola koji se mogu unijeti u računalo jednim pritiskom na tipku, kao što je brojčani simbol “5”, interpunkcijski znakovi poput “.” i slovo “b”. Međutim, izraz znak ne znači samo slovo, broj ili interpunkcijski znak. Kontrolni znakovi kao što su delete, tab i backspace također spadaju u znak primitivnog tipa podataka.

Općenito, sve što je primitivni tip podataka također je tip vrijednosti, što znači da podaci nisu jako izbirljivi. Podaci se ne moraju uvijek bilježiti na isti način. Na primjer, obično nije važno kojim se redoslijedom zapisuju bajtovi koji opisuju podatke.

Jedno područje u kojem se neki programski jezici razlikuju je njihov tretman nizova. Kao termin iz računalne znanosti, niz je niz simbola, kao što su znakovi. Neki programski jezici ugrađuju podršku za nizove i tretiraju ih kao primitivni tip podataka, dok drugi jezici nemaju osnovnu podršku za tip podataka.

Cijeli brojevi su područje u kojem računalni hardver može utjecati na obradu primitivnih tipova podataka. U terminologiji računalne znanosti, cijeli broj predstavlja jedan ili više matematičkih cijelih brojeva. Različite središnje procesorske jedinice (CPU) imaju različita ograničenja koliko se bajtova može koristiti za predstavljanje cijelog broja. Ponekad je to nešto što računalni programeri imaju na umu kako bi njihovi programi mogli raditi na što više različitih tipova CPU-a.