RSS
 

Archiwum dla kategorii ‘1. Dane informacje kapitał intelektualny wiedza’

Kapitał intelektualny

22 sie

Kapitał intelektualny to całkowity kapitał przedsiębiorstwa odnoszący się do wiedzy w nim zawartej. Składają się na niego: wiedza i doświadczenie pracowników, zaufanie klienta, marka, umowy, systemy informacyjne, procedury administracyjne, patenty, znaki handlowe i efektywność procesów.

Aktywa związane ze strukturą firmy:
- własność intelektualna,
- inne skodyfikowane źródła wiedzy,
- aktywa związane ściśle z rynkiem.

O ogromnej roli kapitału intelektualnego we współczesnym świecie świadczą badania przeprowadzone przez firmę Interbrand. Lista najdroższych marek świata:
1. Coca Cola – 62,53 mld USD (61% wartość rynkowa firmy),
2. Microsoft – 59,94 mld USD (17% wartości rynkowej firmy),
3. IBM – 53,38 mld USD (27% wartości rynkowej firmy).

Kapitał intelektualny występuje w następujących postaciach: kapitału innowacji, kapitału ludzkiego, kapitału klienckiego i kapitału procesów.

CHARAKTERYSTYKA RODZAJÓW KAPITAŁU INTELEKTUALNEGO
Charakterystyka rodzajów kapitału intelektualnego

 

Informacja ekonomiczna i kryteria jej oceny

21 sie

Jeżeli informacje dotyczą obszaru gospodarki, to wówczas mówi się o informacji ekonomicznej. Ponadto, ze względu na rodzaj nośnika informacji można mówić o informacji tradycyjnej lub informacji elektronicznej.

KLASYFIKACJA INFORMACJI
Klasyfikacje informacji

Można przyjąć, że informacja sama w sobie nie ma wartości. Jednak zmieniając sposób postrzegania rzeczywistości zyskuje ona wartość, którą należy pomniejszyć o koszty zdobycia, przechowywania i/lub przetwarzania tej informacji. Górną granicą kosztów, jakie można ponieść w związku ze zdobyciem lub przetworzeniem danych na informację, jest poprawna skuteczności decyzji lub działań podjętych dzięki tej informacji.

Informacja, która tworzy wartość, to dobra informacja, czyli:
- adekwatna do problemu, którego rozwiązanie wspomaga; le przygotowana informacja rodzi frustrację użytkownika,
- wystarczająco szczegółowa dla rozwiązania problemu; z jednej strony zbyt duża szczegółowość zazwyczaj wiąże się z nadmiernymi kosztami; z drugiem strony zbytnia ogólnikowość informacji powoduje wzrost ryzyka popełnienia błędów,
- wystarczająco kompletna do rozwiązania problemu; oznacza to, że dostarczona informacja obejmuje, w miarę możliwości, wszystkie aspekty analizowanego zagadnienia,
- wiarygodna – pochodząca ze źródła (źródeł), do którego użytkownik ma zaufanie; szczególnego znaczenia nabiera ten element w przypadku decyzji strategicznie ważnych – weryfikacja informacji w wielu miejscach staje się bardzo istotna,
- przekazana właściwej osobie – w dużych organizacjach częstym błędem jest dostarczenie informacji do właściwego działu, jednak osobie ze złego szczebla decyzyjnego,
- dostarczona we właściwym czasie – długi czas przetwarzania może sprawić, że nawet najcenniejsza informacja zbyt późno ma wartość papieru, na którym ją wydrukowano,
- dostarczona przez właściwy kanał komunikacyjny; kanałów takich w organizacji może być wiele – kontakt twarzą w twarz, telefon, poczta elektroniczna, komunikator, wideokonferencja; czasami informacja jest poufna lub wręcz tajna; wybór właściwego kanału jest w tym przypadku kluczowy.

Jeżeli zagadnienie informacji rozpatruje się z punktu widzenia funkcji zarządzania, to można mówić o zarządzaniu informacją.

Zarządzanie informacją to kompleksowy pod względem zakresu i skoordynowany czasowo ciąg czynności planowania, organizowania, nadzorowania (motywowania) i kontroli przebiegu wszelkich procesów informacyjnych przedsiębiorstwa.

W klasycznym ujęciu zarządzania informacją wyodrębnia się dwa jego rodzaje:
- zarządzanie zasobami informacyjnymi,
- zarządzanie procesami informacyjnymi.

Zarządzanie zasobami informacyjnymi stanowi ujęcie statyczne. Oznacza ono planowanie, organizowanie i kontrolę zasobów informacji. Obejmuje przede wszystkim zagadnienia jakości informacji i polityki bezpieczeństwa informacji. Z kolei zarządzanie procesami informacyjnymi jest ujęcie dynamicznym. Zatem jest ono planowaniem, organizowaniem i kontrolą faktycznych ciągów działań, składających się na procesy informacyjne. Procesy te pozwalają na gromadzenie, przechowywanie, przetwarzanie, przesyłanie i udostępnianie informacji.

Kolejną kategorią w piramidzie wiedzy jest wiedzy jest pojęcie wiedzy.
Wiedza to prawdziwe, uzasadnione przekonanie.
Wierzchołkiem piramidy jest mądrość.

 

Informacja – wybrane definicje i klasyfikacje

20 sie

Informacja to treść komunikatu przekazywanego za pomocą danych.

Informacja stanowi ciąg przetworzonych danych użytecznych dla odbiorcy. Powszechnie wyróżnia się pięć rodzajów teorii informacji:
- ilościowa,
- jakościowa,
- wartościowa,
- pragmatyczna,
- semantyczna.

Dla zrozumienia istoty informacji zasadnicze znaczenie ma ilościowa teoria informacji, opracowana przez C. E. Shannona. W kontekście tej teorii, nazwane przez Shannona modelem komunikacji, informacja jest przesyłana w spójnym systemie komunikacyjnym. W systemie tym komunikat jest przekazywany w następujący sposób: źródło (nadawca) generuje informacje, koder koduje je w postaci danych, czyli ciągu znaków, następnie jest on przesyłany kanałem komunikacyjnym (medium transmisyjnym), dekodowany przez dekoder i przekazywany odbiorcy komunikatu, którym jest osoba lub urządzenie. Poprawny przekaz komunikatu może być zniekształcony przez szum informacyjny, wytwarzany przez źródło zakłóceń.

Kluczowym terminem w ilościowej teorii informacji jest pojęcie entropii.
Entropia to średnia przypadająca na wiadomość elementarną symbolizującą zajście zdarzenia z jakiegoś zbioru.

WZÓR NA ENTROPIĘ:
Wzór na system pozycyjny
gdzie:
H – entropia,
p(i) – prawdopodobieństwo wystąpienia danego zdarzenia i.

Entropia jest określeniem niepewności wystąpienia danego zdarzenia. Z kolei, im niższe prawdopodobieństwo wystąpienia określonego zdarzenia, tym większą otrzymuje się ilość informacji.

Podstawa logarytmu r we wzorze entropii może przybierać różne wartości. W zależności od wybranej wartości podstawy logarytmu mamy do czynienia z różnymi miarami entropii:
- jeżeli podstawa logarytmu r = 2, to miarą entropii jest bit,
- jeżeli r = e (podstawa logarytmu naturalnego), miarą entropii jest nat (nit),
- dla r = 10 miarą entropii jest hartley.
Łatwo przeliczyć, że 1 hartley = 3,321928095 bitów = 2,302585093 natów (nitów).

Pozostałe wymienione teorie informacji – jakościowa, wartościowa, pragmatyczna i semantyczna – są rzadziej przywoływane w teorii i aplikacjach informatyki ekonomicznej.

Jakościowa teoria informacji została opracowana przez M. Mazura i jest ukierunkowana na badanie własności informacji oraz identyfikację zmian strukturalnych w systemie przez przepływy informacyjne. Jakościowa teoria informacji M. Mazura bazuje na teorii sterowania. Istotne kategorie pojęciowe tej teorii są poparte dowodami matematycznymi i pozwalają wyodrębnić następujące czynności:
- informowanie – przekształcanie informacji z oryginału na jego obraz,
- transinformowanie – wierne odzwierciedlenie rzeczywistości, wierne informowanie,
- dezinformowanie – przekazywanie informacji nieprawdziwych lub niepełnych,
- parainformowanie – informacje domniemane, identyfikowane na podstawie sumy informacji nadawanych oraz odbieranych i uprzednio zapamiętanych,
- metainformowanie – informacja o strukturze informacji.

W wartościowej teorii informacji ocenia się informacje przez określenie jej wartości dla podejmowanej decyzji, wybranej ze zbioru dopuszczalnych decyzji, przy uwzględnieniu występujących uwarunkowań. Wartość informacji jest uzależniona od stanu systemu w określonym momencie. Teoria ta pozwala na maksymalizację korzyści związanych z podejmowanymi decyzjami. Miarą wartości informacji dla danej sytuacji decyzyjnej jest przyrost korzyści związany z tą informacją.

Cechą charakterystyczną pragmatycznej teorii informacji jest traktowanie informacji jako jednego z zasobów przedsiębiorstwa, najcenniejszego towaru, którego wartość ocenia się przez pryzmat użyteczności w procesach biznesowych.

Subiektywizm jest najbardziej istotnym elementem semantycznej teorii informacji – użytkownik informacji formułuje wymagania w zakresie istotności i sposobu jej przekazania.

 

Dane – wybrane definicje i charakterystyki

19 sie

Dane to fakty, zdarzenia, transakcje, które zostały zapisane. Stanowią one surowy materiał wejściowy, z którego produkowane są informacje. Są one ciągiem znaków zapisanych w przedstawionych wcześniej konwencjach.

Dane mogą pochodzić z różnych źródeł – zewnętrznych i wewnętrznych. Dane zewnętrzne (z otoczenia) docierają w konkretnej formie i postaci, natomiast dane wewnętrzne wymagają systemu pomiaru i zapisu danych Mogą one być produkowane automatycznie albo konieczne jest wdrożenie specjalnych procedur liczenia lub pomiaru, a wyniku mogą być zapisywane.

Typowe formy przetwarzania danych to np. klasyfikowanie danych, operacje arytmetyczne na danych, agregowanie danych, selekcjonowanie lub sortowanie. Dopiero wykonanie jednej lub kilku z wymienionych operacji przetwarzania danych pozwala uzyskać informacje, które poszerzą sposób rozumienia i interpretacji.

 

Jednostki informacji

18 sie

Kwestie zależności pomiędzy kategoriami danych, informacji i wiedzy są przedstawione w powszechnie akceptowanym modelu P. Robinsona.

RELACJE POMIĘDZY POJĘCIAMI
Relacje pomiędzy pojęciami

Znaczącą rolę w tej interpretacji odgrywa semiotyka, która jest dziełem logiki zajmująca się teorią znaków w badaniu systemów znaków. W ramach semiotyki wyróżnia się:
- semantykę – bada związki między znakami a rzeczywistością,
- syntaktykę – bada relację między samymi znakami,
- pragmatykę – bada relacje między znakiem a jego użytkownikami, łącząc elementy socjologii i np. wiedzy o kulturze.

W celu dokonania tej interpretacji na poziomie informacji, wiedzy i mądrości należy przeprowadzić pomiar danych. Najmniejszą jednostką danych jest bit (ang. binary digit), zwyczajowo oznaczany literą „b„.

Bitem nazywa się najmniejszą jednostkę danych potrzebną do określenia, który z dwóch, równie prawdopodobnych stanów przyjął system. Bit interpretuje się również jako elementarną jednostkę danych komputerowych reprezentowaną w systemie binarnym jako „0″ lub „1″.

Często spotykanymi innymi interpretacjami bitu jest fałsz-prawda, nie-tak. Upowszechnienie binarnego systemu liczbowego jest związane głównie z kwestią konstrukcji komputerów:
- „0″ – brak napięcia (ewentualnie niskie napięcie),
- „1″ – wysokie napięcie.

Ponieważ na jednym bicie można zaprezentować tylko dwa stany, w praktyce używa się krotności bitów. Firma IBM od 1964 roku w komputerach serii System 360 przyjęła, że znaki w systemach komputerowych przedstawia się jako krotność równą ośmiu bitom. Zwyczajowo kombinację ośmiu bitów przyjęło się nazywać bajtem, którego oznaczeniem jest B. Przed wprowadzeniem pojęcia „bajt” na określenie jednostki danych używano terminu słowo maszynowe. Używane współcześnie komputery, w zależności od tzw. architektury, pracują na słowach maszynowych o długości 16 bitów (słowo dwubajtowe), 32 bitów (słowo czterobajtowe) lub 64 bitów (słowo ośmiobajtowe).

W życiu codziennym podstawą tworzenia wszelkich krotności w systemach miar jest system SI. Używane w tym systemie przedrostki „kilo”, „mega” i „giga” nie odpowiadają w pełni zwyczajowo przyjętym w informatyce oznaczeniom dla wielokrotności bajtów. Powoduje to nieporozumienia, zwłaszcza przy określeniu pojemności dysków, gdzie różnice między pojemnością deklarowaną w GB przez producenta a raportowaną przez system operacyjny komputera mogą sięgać ok. 7,5%.

NAZWY PRZEDROSTÓW WIELOKROTNOŚCI BAJTU W UKŁADZIE DWÓJKOWYM I SI
Nazwy przedrostków wielkokrotności bajtu w układzie dwójkowym i SI

Łączenie bitów w bajty wynikało z zapotrzebowania na jednoznacznie zdefiniowane kombinacje zer i jedynek, którym można było przypisać konkretne znaki pisarskie. Opracowano wiele standardów kodów, z których najbardziej znane są:
- BCD – Binary Coded Decimal,
- EFCDIC – Extended Binary Coded Decimal Interchange Code,
- ASCII – American Standard Code for Information Interchange.

Najpowszechniej używanym kodem jest obecnie kod ASCII. Standardowy kod ASCII był siedmiobitowy. Na siedmiu bitach można zakodować 128 znaków. Ponieważ bajt jest ośmiobitowy, można było rozszerzyć standardowy kod ASCII o dodatkowe znaki semigraficzne (symbole pozwalające na tworzenie prostych elementów graficznych) lub znaki z alfabetów narodowych.

PRZYKŁADOWE ELEMENTY TABLICY KODÓW ASCII
Przykładowe elementy tablicy kodów ASCII

Liczby z zakresu od 0 do 127 przypisano literom (małym i wielkim alfabetu angielskiego), cyfrom, znakom specjalnym i tzw. znakom sterującym. Kody 0-31 i 127 (DEL) to tzw. kody sterujące, a pozostałe 96 kombinacji (o wartościach dziesiętnych z zakresu od 32 do 126) przypisano literom, cyfrom i innym znakom drukowanym.

Dany tekst może być przedstawiony jako ciąg wyrazów składających się z ciągu znaków, z których każdy przedstawiony jest jako ciąg zer i jedynek. Ponieważ znaków pisarskich jest bardzo wiele systemy kodowania muszą być rozbudowywane o kody dwubajtowe (np. kodowanie UTF 16 – 65 536 kombinacji) lub czterobajtowe (kodowanie UTF 32 – ponad 4 mld kombinacji). W ten sposób rozwiązuje się problemy związane z reprezentacją różnych znaków w językach narodowych.

 

Systemy liczbowe

17 sie

Obecnie znane są trzy podstawowe typy systemów liczbowych:
- system jedynkowy,
- systemy addytywne,
- systemy pozycyjne.

System jedynkowy został wypracowany na etapie neolitu. W systemie tym występuje tylko jedna cyfra (oznaczona „1″), a kolejne liczby tworzy się przez wielokrotne powtórzenie tej cyfry. Systemem tym do dzisiaj posługują się Pigmeje, a najprostsza koncepcja komputera, opracowana przez A. Turinga, zwana maszyną Turinga, funkcjonowała właśnie w systemie jedynkowym.

Najbardziej znanymi systemami addytywnymi były:
- system sześćdziesiętny – używany od ok. 1750 roku p. n. e. w Babilonie, a opracowany przez Sumerów,
- system rzymski – używany od ok. 500 roku p. n. e.

Współcześnie pozostałością systemu sześćdziesiętnego są miary czasy – godzina obejmująca 60 minut i minuta obejmująca 60 sekund. Podstawą systemu rzymskiego jest liczba 10, mająca najprawdopodobniej związek z faktem posiadania dziesięciu palców przez człowieka. W systemie tym występuje 7 liter reprezentujących liczby, a liczby zapisuje się, zestawiając liczby reprezentujące liczby od największej do najmniejszej.

Najbardziej przejrzysty zapis liczb oferują systemy pozycyjne. W systemie pozycyjnym najbardziej istotne jest określenie podstawysystemu liczbowego oraz symboli cyfr. Najważniejszym osiągnięciem systemów pozycyjnych było wypracowanie symbolu 0 (zero), reprezentującego zbiór pusty dla mnożnika występującego przy określonej potędze podstawy systemu liczbowego. Dowolną liczbę w dowolnym pozycyjnym systemie liczbowym można zapisać jako:
Wzór na system pozycyjny

gdzie:
L – dowolna liczba,
C – cyfra systemu liczbowego,
p – podstawa systemu liczbowego,
0-n – potęga podstawy systemu liczbowego.

Najpopularniejszymi pozycyjnymi systemami liczbowymi są:
- system dwójkowy, zwany systemem binarnym (występują dwie cyfry: 0 i 1),
- system ósemkowy, zwany oktalnym (występuje osiem cyfr: 0, 1, 2, 3, 4, 5, 6, 7),
- system dziesiętny, zwany decymalnym (występują powszechnie znane i używane cyfry: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9),
- system szesnastkowy, zwany heksadecymalnym (występuje szesnaście następujących cyfr: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F).

Dla czystości zapisu w notacji liczby jako subskrypt na końcu liczby podaje się podstawę systemu liczbowego. Pomiędzy różnymi systemami liczbowymi można przeprowadzić konwersje.

KONWERSJE MIĘDZY SYSTEMAMI LICZBOWYMI:
Konwersje między systemami liczbowymi

Spośród przedstawionych zapisów system szesnastkowy (heksadecymalny) jest najbardziej syntetyczny – jedna cyfra systemu szesnastkowego może zastąpić liczbę reprezentowaną przez czteroznakową liczbę w systemie dwójkowym. System binarny jest rutynowo stosowany w informatyce, w komputerach i sieciach komputerowych – dane cyfrowe przechowywane i przesyłane są w systemie binarnym