KOMUNIKACJA MULTIMEDIALNA

 

 

Technologia multimediów

 

Bardzo trudno jest zdefiniować multimedia. Powstają one w wyniku związku idei oraz technologii. Taka współczesna technologia multimedialna jest mieszanką hardware’u i software’u.

 

Konceptualnie można podzielić technologię multimediów na:

systemy sterowania (control systems), współcześnie nazywane w terminologii informatycznej – interfejsem użytkownika (user interface), za pomocą którego steruje się prezentowaniem informacji,

informację (information), przechowywaną we współczesnych systemach komputerowych w systemie składowania (storage system), w którym informacje oczekują aż do momentu, gdy zostaną zainicjowane przez system sterowania.

 

 

 

Multimedia a hardware - MPC

 

Technika cyfrowa jest tym, dzięki czemu powstały multimedia. Współczesne komputery, będące cyfrowym systemem sterowania i cyfrowym medium, stanowią najbardziej zaawansowaną formę przechowywania i przekazywania sygnałów audio i video.

 

Multimedia zrodziły się dzięki zwiększonej mocy obliczeniowej komputerów PC. Było to możliwe wtedy, gdy moc obliczeniowa wzrosła do wysokości porównywalnej z potrzebami emisji obrazu (jakości TV) i dźwięku (jakości CD) w czasie rzeczywistym. Komputer spełniający to kryterium nazwano Multimedialnym PC (lub MPC).

 

 

Multimedia a software

 

 

Głównie software stanowi to, czym są multimedia.

Sofrware, tj. zdigitalizowane słowa, dźwięki, muzyka i obrazy (ruchome, tj. filmy i nieruchome, tj. zdjęcia) składające się na pewną całość nazywaną prezentacją multimedialną.

 

Wydaje się zatem, że definiowanie multimediów jako oprogramowania wydaje się adekwatniejsze. To właśnie software sprawia, że MPC wyświetla obrazy na ekranie, odtwarza dźwięk, pozwala wprowadzać polecenia przy pomocy klawiatury czy myszy itd.

 

 

Multimedia a hardware i software

 

 

Pomimo, że autokrata Bill Gates z Micfosoftu życzyłby sobie, aby multimedia oznaczały jedynie Windows, tak nie jest. Podobnie jak Multimedialny PC (MPC), Windows jest jedynie narzędziem wspomagającym multimedia. Oferuje on jedynie stronę organizacyjną, jak każdy inny system operacyjny tego typu (np. MacOS, Linux itp.). Windows, jak sama nazwa wskazuje dostarcza tylko okienek, przez które można dostrzec multimedia.

 

 

Multimedia a użytkownik

 

 

Czym zatem są multimedia? Są one efektem połączenia hardware’u, software’u oraz interfejsów (styków pomiędzy np. m.in.: sprzętem a oprogramowaniem, komputerem a dyskiem, programem a systemem operacyjnym, klawiaturą a użytkownikiem itd.itp.)

 

Tak więc istnieje jeszcze jeden bardzo ważny czynnik zaangażowany w multimedia – jego użytkownik. Niewątpliwie nadawca i odbiorca są częścią systemu komunikacyjnego. W przypadku multimediów ich użytkownik nie musi pozostawać biernym odbiorcą, może np. przejąć sterowanie, może współdziałać stając się częścią multimediów.

 

 

Interaktywność formą sterowania multimediami

 

 

Można zatem powiedzieć, że interaktywność jest ważną cechą multimediów.

 

Oznacza to m.in. że samemu można dostosowywać multimedialne prezentacje do własnych potrzeb, można przechodzić od razu do najistotniejszych dla siebie danych, wybierać videoklipy, które akurat najbardziej interesują w danej chwili.

 

Interaktywność jest zatem formą sterowania, sterowania zapewnianego właśnie przez multimedia.

 

 

Multimedia – forma komunikowania się

 

 

Do czego wykorzystywane są techniki multimedialne?

 

Dzięki multimediom można przedstawić informację, dzielić się ideami, wywoływać emocje. Z wykorzystaniem mulitimediów można widzieć, słyszeć i rozumieć idee prezentowane przez innych. Multimedia są zatem formą komunikowania się.

 

Zakres metod komunikowania się dostępny współcześnie rozpoczyna się od wypowiadanego słowa i gestu. Wszystko inne opiera się na tych podstawowych koncepcjach – języku i obrazie. Multimedia jedynie łączą najbardziej wyrafinowane techniczne formy pochodne do tych dwóch podstawowych koncepcji komunikowania się.

 

Komunikacja

 

Procesy komunikacyjne, definiowane jako procesy porozumiewania się jednostek, grup lub instytucji, których celem jest wymiana myśli, dzielenie się wiedzą, informacjami, ideami, wpisują się w życie człowieka od początków ludzkości.

Wszechobecność masowych mediów w życiu współczesnego człowieka, dynamiczny rozwój technologii teleinformacyjnych i wzrastająca rola tzw. nowych mediów (nowoczesnych sieci kablowych, satelitarnych i komputerowych), niewątpliwie świadczą o dokonującej się na naszych oczach rewolucji komunikacyjnej.

 

 

 

Nowe media

 

 

W literaturze poświęconej komunikacji społecznej często spotykanym terminem są tzw. nowe media, które bardzo różnie się definiuje.

Najogólniej można stwierdzić, iż są to wszelkie techniki pozyskiwania, utrwalania, przetwarzania i transmisji informacji (danych, dźwięku i obrazu), wynalezione i wprowadzone do użytku później niż tradycyjna telewizja.

 

 

 

Warto podkreślić, że niemal we wszystkich nowych mediach występują cztery wspólne elementy. Są to:

- przekazywane informacje,

- pośrednicząca technika – tj. sprzęt i oprogramowanie (głównie tym elementem zajmiemy się na wykładach),

- komunikator,

- odbiorca.

Świadomość roli nauk o komunikowaniu, a przede wszystkim potrzeby kształtowania praktycznych umiejętności komunikacyjnych, niezbędnych każdemu człowiekowi ze względu na funkcjonowanie w obrębie systemu społecznego, wskazuje na potrzebę podjęcia zagadnień związanych z multimedialną formą komunikacji.

 

Element oceny

% ocen pozytywnych

% ocen negatywnych

Wiedza teoretyczna

89,4

8,2

Wiedza na temat wykorzystania zdobytych informacji w praktyce

90,5

8,2

Umiejętność komunikowania się

80,0

18,8

Umiejętność autoprezentacji

85,8

12,9

Umiejętność wystąpień publicznych

82,3

17,6

Umiejętność zespołowych wystąpień publicznych

84,7

12,9

Umiejętność sporządzania materiałów dla publiczności

71,7

28,2

Umiejętność obsługi pomocy audiowizualnych

64,7

34,1

Umiejętność pracy zespołowej

88,2

10,5

Umiejętność sporządzania dokumentów typu CV i list motywacyjny

92,9

7,0

Umiejętność pisania raportów z tematyki prezentacji

71,7

28,2

 Kształcenie w zakresie komunikacji społecznej

 

 

 

 

 

Tabela 1. (Zaczerpnięta z: A. Dziedziczak-Foltyn, Kształcenie w zakresie komunikacji społecznej, s. 342)

 

 

 

Kształcenie w zakresie komunikacji społecznej

 

 

Badania ankietowe przeprowadzone w roku 2003 wśród studentów uczęszczających na zajęcia z zakresu komunikacji społecznej (w ramach różnych kierunków studiów humanistycznych) wskazują na konieczność poprawy umiejętności obsługi pomocy audiowizualnych oraz sporządzania materiałów dla publiczności.

Przedmiot „KOMUNIKACJA MULTIMEDIALNA” z założenia ma stać się uzupełnieniem tych braków.

 

 

Multimedia – definicja tymczasowa

 

 

Multimedia to ogólne określenie środków komunikacji wykorzystujących wiele form przekazu.

Jeśli ktoś mówi o multimediach, to zazwyczaj ma na myśli połączenie kilku z następujących elementów:

 

• tekstu,

• obrazu:

 

- statycznego (tj. zdjęć),

                - ruchomego (tj. filmu i animacji),

• dźwięku:

                - muzyki,

                - mowy.

 

 

 

 

Komunikacja multimedialna – struktura wykładu

 

Ze względu na powyższe określenie czym są multimedia oraz z powodu zbyt małej uwagi poświęcanej (w ramach kształcenia z zakresu komunikacji społecznej) umiejętnościom praktycznym dotyczącym obsługi i przygotowania współczesnych środków audiowizualnych, w ramach wykładu omówimy poniższe zagadnienia:

               

1. Komunikacja multimedialna i multimedia,

               

2. Dźwięk cyfrowy,

                3. Fotografia cyfrowa,

                4. Cyfrowe filmy video,

                5. Prezentacje multimedialne,

                6. Gry komputerowe – komercyjny sukces multimediów interakcyjnych,

                7. Internet – platforma globalnej komunikacji multimedialnej,

               

8. Przyszłość multimediów i komunikacji multimedialnej – VR.

 

 

Komunikacja multimedialna – struktura ćwiczeń

 

 

Podczas ćwiczeń nauczą się Państwo praktycznych umiejętności dotyczących obróbki:

 

• cyfrowego dźwięku,

 

• fotografii cyfrowej,

 

• cyfrowych filmów video,

• kompilacji tych danych w jedną całość będącą prezentacją multimedialną (realizującą cel przekazu informacji w formie multimedialnej, tj. będącą jedną z form komunikacji multimedialnej).

 

 

Pojęcie MULTIMEDIA używane było w różnych znaczeniach:

               

A) Po raz pierwszy pojawiło się na początku lat 70. jako określenie zestawu pomocy naukowych, zawierających różnego typu materiały dydaktyczne (podręczniki, folie, slajdy, filmy, taśmy magnetofonowe itp.),

B) W drugiej połowie lat 80. odnoszono je do systemów komputerowych służących do przygotowania danych do zapisu na płytach kompaktowych CD,

               

C) Na początku lat 90. termin multimedia zaczęto wiązać z komputerami PC wyposażonymi w funkcje przetwarzania obrazu i dźwięku.

Termin multimedia w znaczeniu bliskim obecnego użyto w   1991 r. definiując minimalną konfigurację tzw. pełnego systemu multimedialnego klasy PC (Multimedia-PC, MPC), opartego na modelu komputera AT z procesorem 80286, 10 MHz;

w 1993 r. ustanowiono nowy standard multimediów PC: procesor 486SX 25 MHz, czytnik CD-ROM, karta dźwiękowa (jakości Audio-CD), karta graficzna VGA, nakładka na system operacyjny DOS – tj. Windows w wersji multimedialnej.

Już w pierwszej połowie lat 90-tych ubiegłego wieku za pomocą sieci komputerowych przekazywano:

• pocztę akustyczną,

• obraz video, tworząc:

- videokonferencje (wykorzystywane np.: do redagowania zespołowego np. złożonego projektu technicznego, czy w projekcie Medkom – Medycznej Komunikacji), lub

- videotelefon.

Będące wtedy najistotniejszymi zastosowaniami multimediów w dziedzinie komunikacji.

Już w pierwszej połowie lat 90-tych ubiegłego wieku za pomocą sieci komputerowych przekazywano:

• pocztę akustyczną,

• obraz video, tworząc:

- videokonferencje (wykorzystywane np.: do redagowania zespołowego np. złożonego projektu technicznego, czy w projekcie Medkom – Medycznej Komunikacji), lub

- videotelefon.

Będące wtedy najistotniejszymi zastosowaniami multimediów w dziedzinie komunikacji.

D) Obecnie przez system multimedialny rozumie się dowolny system teleinformatyczny zdolny do przetwarzania, archiwizacji i dystrybucji danych w postaci dźwięku, ruchomych obrazów, fotografii, grafiki komputerowej i tekstów.

Ważnym atrybutem techniki multimedialnej we współczesnym jej rozumieniu jest możliwość interakcji użytkownika z systemem. Interaktywność w systemie multimedialnym polega na oddziaływaniu użytkownika (np. za pomocą myszy, klawiatury, joysticka) na przebieg realizacji programu komputerowego.

 

Cechę tę ma na przykład:

 

Internet,

 

gry elektroniczne oraz

 

wydawane na płytach CD-ROM podręczniki, encyklopedie, słowniki, katalogi i poradniki.

Systemami multimedialnymi w najprostszej postaci są obecnie gry przenośne typu Gameboy oraz konsole telewizyjne typu Nintendo lub Sega, bardziej złożonymi zaś — wydawnictwa elektroniczne, np. encyklopedie oraz gry wideo (zapisane zwykle na płytach kompaktowych CD).

E) Pełnym urzeczywistnieniem tak rozumianej idei multimediów ma być przyszłościowa koncepcja infrastruktury informatycznej – infostrada, łącząca w sobie interaktywną telewizję cyfrową, światową sieć komputerową i teleusługi.

Współczesne multimedia – podsumowanie:

Na razie pojęcie multimediów odnosi się (w praktyce) przede wszystkim do techniki komputerowej, a zwłaszcza do techniki opartej na komputerach (M)PC. Wynika to stąd, że komputery PC są jak dotąd jedynymi powszechnie dostępnymi narzędziami umożliwiającymi dostęp do Internetu, odczytywanie płyt CD-ROM, przetwarzanie grafiki, dźwięku tekstów w czasie rzeczywistym, a także urządzeniem umożliwiającym rozrywkę (np. gry) w wirtualnym świecie multimediów.

Stopniowo niektóre z tych funkcji zaczynają pojawiać się również w innych urządzeniach elektronicznych powszechnego użytku, które wywodzą się raczej z odbiornika telewizyjnego lub telefonu komórkowego, niż z komputera PC.

Tak więc MULTIMEDIA integrują wiele różnorodnych mediów (telewizji, techniki audio i wideo, informatyki, teletransmisji) na pewnej wspólnej bazie, którą może stanowić np. komputer, przystawka dołączana do odbiornika telewizyjnego (np. konsola do gier) czy rozbudowany telefon komórkowy itp.

 

Zastosowania technik multimedialnych:

Multimedia stosuje s m.in. w:

dziedzinie rozrywki (gry, karaoke, wideoklipy),

wydawnictw elektronicznych (encyklopedie, leksykony, przewodniki, poradniki, czasopisma),

edukacji (oprogramowanie szkoleniowe i dydaktyczne), a także do:

symulacji komputerowej (lotu, jazdy samochodem, obsługi urządzeń),

archiwizacji i katalogowania (dokumentacja, multimedialne bazy danych),

prezentacji handlowych (reklamy, katalogi multimedialne).

 

Publikacje multimedialne:

Najczęściej jednak, jako powszechny przykład współczesnej komunikacji multimedialnej, spotykamy PUBLIKACJE MULTIMEDIALNE. Są to publikacje elektroniczne, w których przekaz informacji następuje w sposób zintegrowany za pomocą wielu mediów: tekstu, obrazów statycznych (rysunki, fotografie), obrazów ruchomych (filmy, animacje), dźwięku (muzyka, narracja lektora).

Integracja mediów oznacza tu jednoczesność przekazu różnorodnych informacji multimedialnych, ich wzajemnie uzupełnianie się, możliwość wyboru sposobu i rodzaju przekazywania informacji (czy ma to być tekst, zdjęcie, film i w jaki sposób ma być to przekazane).

Początki współczesnych publikacji multimedialnych sięgają drugiej połowy lat 80. i związane są z powstaniem pierwszych komputerów multimedialnych (MPC).

W połowie lat 90. w Polsce zaczęły ukazywać się w wersji multimedialnej publikacje książkowe:

 

słowniki (Komputerowy słownik języka polskiego PWN, od 1996),

 

encyklopedie (Encyklopedia Multimedialna PWN, od 1996),

 

leksykony (Od Bruce'a Lee do Van Damme'a. Leksykon filmów wschodnich sztuk walki, 1998),

 

podręczniki do nauki języków obcych.

 

MULTIMEDIA w sieci:

Możliwości zastosowań multimediów w sposób istotny rozszerzają sieci komputerowe, czego przykładem mogą być:

 

poczta akustyczna,

 

wideotelefon,

 

wideokonferencje i in.

 

Udział zmysłów w pozyskiwaniu informacji o otoczeniu:

Multimedia – to w ogólności zbiór wzajemnie uzupełniających się mediów będących nośnikami informacji, która za pomocą zmysłów (głównie wzroku i słuchu) dociera do odbiorcy.

 

Udział zmysłów w pozyskiwaniu informacji o otoczeniu

 

 

wzrok

 

 

słuch

węch

dotyk

smak

87 %

7%

3,5 %

1,5 %

1 %

 

 

Multimedia przyszłości Virtual Reality:

 


1.Obraz statyczny:

• kształt,

• kolor,

• nasycenie  koloru,

• jasność obrazu,

• kompozycja,

• treść.

2. Ruchome elementy graficzne.

3. Tekst

 

 

1. Muzyka.

2. Narracja.

3.Elementy dźwiękowe.

 

 

1.Animacja rysunkowa.

2.Animacja komputerowa i film

 

 


Media wykorzystujące zmysł wzroku:

               

1. Obraz statyczny

                Informacja docierająca do odbiorcy konstruowana jest w oparciu o atrybuty, które mają wywołać u oglądającego określony zbiór skojarzeń bądź emocji:

 

Kształt – wywołujący określone skojarzenia (np. piktogramy) lub emocje (kształty
o ostrych krawędziach mają silniejsze nasycenie emocjonalne niż kształty obłe).

               

 

Kolor – główna cecha działająca na emocje widza (np. błękit działa kojąco, ognista czerwień powoduje pobudzenie). Kolor może również powodować skojarzenia związane z nabytymi doświadczeniami.

 

Nasycenie koloru – działa głównie na emocje. Silniejsze nasycenie powoduje wzrost reaktywności, kolory bledsze działają na nas uspokajająco.

 

Jasność obrazu – działa na emocje (np. ciemne kolory mogą powodować stan przygnębienia), ale głównie jest używana do przyciągania wzroku do konkretnego miejsca.

                Np. Ciemny element na jasnej stronie spowoduje zwrócenie uwagi na ten obszar strony. 

 

 

Kompozycja – dotyczy głównie elementów graficznych, które w odpowiednim zestawieniu mogą ułatwiać odbiór treści. Np. rozmieszczenie ilustracji od lewego górnego rogu, do prawego dolnego wydaje się naturalne.

Treść – dotyczy głównie zdjęć. Treść zdjęć może wyzwalać emocje u oglądającego, np. zdjęcie (głodującego) dziecka najczęściej wzbudza uczucie współczucia.

2. Ruchome elementy graficzne

               

Ruch zostanie natychmiast zauważony, nawet wtedy gdy widz ogląda właśnie najwspanialszy obraz statyczny. Z tego względu ruchome elementy graficzne wykorzystywane są często jako elementy interfejsu graficznego, np. animowane przyciski.

Ruchome elementy należy stosować z umiarem, ponieważ animowanie jednocześnie wielu elementów powoduje bałagan na ekranie i dezorientację widza.

3. Tekst

               

Słowo pisane jest nieodzownym i podstawowym elementem multimediów, ponieważ za pomocą tekstu można w bardzo prosty sposób przekazać ważne informacje.

 

Media wykorzystujące zmysł słuchu:

1.       Muzyka 

jest używana do ilustrowania pewnych sytuacji i do budowania nastroju. Dlatego powinna być ściśle związana z tematyką projektu.

               

2.       Narracja  

jest to przeniesienie formy pisanej na mówioną, stąd nacisk jest położony na przekazanie informacji. Doskonale sprawdza się w projekcie adresowanym do dzieci.

 

3.       Elementy dźwiękowe

to głównie elementy interakcji użytkownika z aplikacją, pomagające np. w nawigacji.

 

Media wykorzystujące zmysł wzroku i słuchu (to animacja i film – będące połączeniem obrazów ruchomych z dźwiękiem):

1.       Animacja rysunkowa

silnie oddziałuje uproszczoną formą graficzną. Wykorzystywana jest w prezentacjach edukacyjnych, instruktażowych, w testach, grach, kartkach z życzeniami. Jest bardzo pożądana w projektach adresowanych do dzieci. Ponadto jest bardzo często stosowana w Internecie ze względu na niewielkie rozmiary plików.

               

2.       Animacja komputerowa i film

oferuje najszersze spektrum przekazywania informacji.

 

Początki multimediów w komputerach PC - technologiczne bariery rozwoju komputerów multimedialnych:

                a) Każda sekunda zapisu monofonicznego dźwięku kodowanego z jakością CD (16-bitów, 44,1 kHz) zajmuje 88 kilobajtów (kB) pamięci. Nawet niedługi utwór trwający minutę (i zapisany monofonicznie) wymaga zatem ponad 5 MB pamięci. Pojedynczy obraz telewizyjny zakodowany przy użyciu ośmiu bitów dla składowych RGB oznacza ponad 1 MB pamięci, a więc każda sekunda filmu wyświetlanego w tempie 25 klatek na sekundę wymaga 25 MB danych. W początkowej fazie rozwoju multimediów tak duże wymagania wobec pojemności pamięci były nie do zrealizowania. Pojemności dysków twardych w komputerach PC mierzono wówczas w dziesiątkach MB, a pamięci operacyjne miały pojemność pojedynczych MB. Dopiero wprowadzenie płyty CD-ROM o pojemności 650 MB pozwoliło magazynować tak dużą liczbę danych.

                b) Drugą barierą w rozwoju multimediów była ograniczona przepływność kanałów transmisyjnych w systemach komputerowych, rozumiana jako maksymalna szybkość przesyłania danych. Pierwsze czytniki CD-ROM odczytywały dane w tempie 150 kB/s, gdy tymczasem odtwarzanie filmów w czasie rzeczywistym wymaga wielokrotnie większej przepływności danych (film bez kompresji, to 25 MB/s). W 2. połowie lat 90. pojawiły się znacznie szybsze czytniki CD-ROM, zdolne do odczytu z wielokrotną prędkością w stosunku do prędkości nominalnej (150 kB/s).

                Dla przykładu, czytnik o szybkości 32x może odczytywać dane w tempie zbliżonym do 5 MB/s (co jest wystarczające do płynnego odtwarzania filmu zapisanego w formacie VCD i SVCD).

                c) Kolejnym „wąskim gardłem” komputerów multimedialnych okazały się połączenia czytników CD-ROM z pamięciami i procesorami, nazywane szynami lub magistralami komunikacyjnymi.

                Trudność tę pokonano wprowadzając w 1992 r. szybsze szyny komunikacyjne zdolne do przesyłania większego strumienia danych, tj. magistralę PCI, której maksymalna przepustowość wynosi 132 MB/s (przepustowość wcześniejszej magistrali ISA, wprowadzonej na rynek w 1984 r., wynosiła teoretycznie 8MB/s, ale efektywna wahała się w granicach od 1,6 do 1,8 MB/s).

 

 

 

Komputer multimedialny:

                Dzięki tym innowacjom pod koniec lat 90. powstały komputery PC zdolne do odtwarzania filmów i dźwięku w czasie rzeczywistym. Tryb odtwarzania filmów przez komputery PC, nazywany trybem FMV (ang. Full Motion Video), zapewniał on jednak nadal gorszą jakość obrazu w porównaniu z obrazem telewizyjnym. Ograniczenia polegały na mniejszej rozdzielczości obrazu i częstości wyświetlania kadrów.

                Największe wymagania techniczne stawia się systemom multimedialnym, które mogą nie tylko odtwarzać zarejestrowane wcześniej ruchome obrazy, ale również generować je przy użyciu odpowiednich programów komputerowych. Niezbędne są wówczas procesory o dużej mocy obliczeniowej. Współczesne mikroprocesory projektuje się w związku z tym w taki sposób, by operacje graficzne były wykonywane szczególnie szybko. W tym celu procesory rodziny Pentium (Intel) w 1997 r. wyposażono w mechanizm MMX (ang. Multimedia Extension) przyspieszający przetwarzanie obrazów i dźwięku. System MMX w rozwiniętej wersji zastosowano również w rodzinie procesorów Pentium III (1999). Dodatkowe możliwości usprawnienia wyświetlania ruchomych obrazów zapewniają specjalnie konstruowane karty graficzne komputerów PC z akceleratorami graficznymi zbudowane z wykorzystaniem technologii 3D.

                Wraz ze wzrostem wydajności procesorów i kart graficznych pojemność płyt CD-ROM okazała się niewystarczająca. Problem ten częściowo udało się rozwiązać stosując lepsze metody kompresji dźwięku (np. MP3) i ruchomych obrazów - filmów (MPEG-2).

                W 2. połowie lat 90. pojawiła się jednak pilna potrzeba wprowadzenia nośnika o znacznie większej pojemności w stosunku do CD-ROM. W tym celu opracowano nowy rodzaj płyty laserowej DVD (ang. Digital Versatile Disc).

 

Nośnik multimedialny DVD:

jest to udoskonalony dysk optyczny o rozmiarach i wyglądzie identycznym jak CD i CD-ROM. Od płyty CD-ROM różni się przede wszystkim znacznie większą gęstością zapisu informacji, którą uzyskano dzięki zmniejszeniu rozmiaru pitów (obszarów rejestracji pojedynczych bitów) i odległości między ścieżkami zapisu (wielkość pitu w formacie DVD wynosi zaledwie 0,4 mm, a odległość między ścieżkami jest równa 0,74 mm).

                Norma DVD przewiduje cztery odmiany dysków: jednostronny z pojedynczą warstwą nośnika o pojemności 4,7 GB (gigabajta), jednostronny z podwójną warstwą nośnika o pojemności 8,5 GB, dwustronny o pojemności 9,4 GB i dwustronny z podwójną warstwą nośnika o łącznej pojemności 17 GB.

                Jednostronna płyta DVD o pojemności 4,7 GB gwarantuje zapis pełnometrażowego filmu z jakością telewizyjną lub lepszą od telewizyjnej, a więc znacznie lepszą od jakości zapewnianej przez analogowe magnetowidy VHS, a nawet S-VHS. Płyty DVD są też znakomitym medium do dystrybucji gier elektronicznych, programów komputerowych i innych materiałów multimedialnych.

                Dzięki postępom w zakresie technologii zapisu laserowego opracowano również dyski DVD-RAM, DVD-R/RW oraz DVD+R/RW które można zapisywać przy użyciu nagrywarek stacjonarnych oraz instalowanych w komputerach PC.

 

DŹWIĘK

Dźwięk, będąc wytworem medium (np. radia, magnetofonu, odtwarzacza CD), a jednocześnie – elementem składowym multimedium, jest przedmiotem analizy zarówno komunikacji multimedialnej, jak i nauk przyrodniczych, zwłaszcza fizyki (akustyki).

Dźwięk jest bez wątpienia jednym z podstawowych nośników informacji docierających do człowieka. Ma on różny charakter, jednakże najogólniej można stwierdzić, że jest on zjawiskiem falowym. Fale dźwiękowe są falami podłużnymi, rozchodzącymi się od źródła, którym jest drgające ciało.

Istota dźwięku wyraża się w zachodzących z odpowiednią częstotliwością zmianach ciśnienia w ośrodku, na które reaguje organ słuchu. Ucho ludzkie reaguje na względną zmianę poziomu dźwięku wyrażaną na ogół w decybelach (dB).

Źródłem dźwięku mogą być drgające ciała stałe (np. struny, membrany) oraz zawirowania powietrza.

Ucho ludzkie rejestruje jako głos drgania mechaniczne (zjawiska okresowe) o częstotliwości od około 16 Hz do 20 000 Hz (20 kHz). Pasmo to nazywa się pasmem akustycznym. Fale o częstotliwości wyższej nazywane są ultradźwiękami, natomiast o niższej – infradźwiękami.

Podstawowym warunkiem zaistnienia zjawiska dźwiękowego jest obecność ośrodka, którego cząsteczki mogą zostać wprawione w ruch (np. przestrzeń kosmiczna jest niezwykle cichym miejscem, gdyż w próżni zjawisko to nie zachodzi).

Dźwięk jest zaburzeniem falowym. Gdy np. rzucimy do wody kamień, spowodujemy zaburzenie pewnego ustalonego porządku, wywołując powstanie ruchu o charakterze falowym. Oznacza to, iż np. wibracje instrumentów, powodując cykliczne rozrzedzanie i zagęszczanie molekuł powietrza wymuszają ruch fali dźwiękowej, która docierając do ucha powoduje efekt słyszenia dźwięku.

 

 

 

 

 

 

 

 

 

 


Częstotliwość

jest pierwszą podstawową cechą fizyczną charakteryzującą zjawisko dźwięku. Dla określenia wartości częstotliwości wprowadzono jednostkę zwaną hercem, od nazwiska niemieckiego fizyka Heinricha Rudolfa Herza (1857-1894). Jeden herc reprezentuje jeden pełen cykl w ruchu falowym, to znaczy od szczytu do następnego szczytu fali, na sekundę, Jeden okres na sekundę tj. 1 Hz (np. 1500 drgań w ciągu jednej sekundy będzie to 1500 Hz). Taka ilość drgań w ciągu jednej sekundy oznacza częstotliwość (wysokość) danego dźwięku. Np. dla muzyków, wysokość dźwięku „a” odpowiada 440 okresom na sekundę, czyli 440 Hz.

Warto dodać, że dźwięki w zakresie 2000-4000 Hz (2-4 kHz) są odbierane najsilniej przez ludzkie ucho. Cechę tę zawdzięczamy procesowi ewolucji, który tak pokierował rozwojem narządu słuchu, aby był jak najbardziej wyczulony na odgłosy mowy.

 

Amplituda

to kolejna wielkość charakteryzująca dźwięk. Jest to wysokość fali. Wielkość amplitudy fali ma bezpośredni wpływ na głośność, a ściślej – na wrażenie głośności jakie odbieramy subiektywnie.

 

 

 

Natężenie dźwięku

Z wielkością amplitudy jest bezpośrednio związane natężenie dźwięku, które określa ilość energii akustycznej padającej na jednostkę miary powierzchni. Natężenie dźwięku najczęściej wyraża się w skali logarytmicznej, która odpowiada charakterystyce czułości ludzkiego słuchu, przy pomocy jednostki zwanej decybelem (dB), będącej pochodną bela (B).

Pomijając szczegóły, warto zapamiętać, że ze zmianą poziomu natężenia dźwięku o 6 dB subiektywnie odbierana głośność zwiększa się (lub zmniejsza) dwukrotnie o połowę niezależnie od wartości początkowej.

 

 

DŹWIĘK – związki pomiędzy właściwościami fizycznymi źródła i cechami wytworzonego przez nie dźwięku

 

 

Istnieją następujące, podstawowe związki między właściwościami fizycznymi źródła i cechami wytworzonego przez nie dźwięku (właściwości psychoakustyczne, wywoływane przez określone własności fizyczne dźwięku przedstawiono w poniższej tabeli):

 

 

 

Własność fizyczna

Wrażenia psychoakustyczne

Amplituda

Natężenie

Częstotliwość drgań

Wysokość

Kształt drgań

Brzemienie

 

DŹWIĘK – sygnał foniczny

Tak określony sygnał akustyczny po zmianie na przebieg elektryczny (np. w mikrofonie) określany jest mianem sygnału fonicznego. Może on występować pod postacią sygnału analogowego lub cyfrowego. Sygnał analogowy ma przebieg analogiczny do sygnału akustycznego, natomiast sygnał cyfrowy powstaje w wyniku przetworzenia analogowego sygnału fonicznego na ciąg impulsów elektrycznych, przedstawiających liczby dwójkowe (jedynki i zera), określające wartość przebiegu analogowego, pobrane z niego w równych odstępach czasowych.

ZJAWISKA  AKUSTYCZNE

Zjawiska akustyczne dzielą się na tony, dźwięki, szumy i huki (dwie ostatnie grupy często noszą wspólne miano szmerów):

tonem określa się proste drganie akustyczne, którego wykresem jest sinusoida.

dźwięk jest zjawiskiem bardziej złożonym, jest wynikiem nakładania się kilku tonów.

szumem nazywa się zjawisko akustyczne, które nie wykazuje stałego okresu drgań.

huk jest odczuwany jako krótkotrwałe i silne wrażenie akustyczne, nie posiadające stałej częstotliwości.

 

FORMY  DŹWIĘKU

Dźwięk stanowi integralną część każdego urządzenia multimedialnego i tradycyjnego środka audiowizualnego, w tym także filmu.

Podstawowe formy dźwięku to:

 

• słowo,

 

• muzyka,

 

• cisza,

 

• odgłosy,

• efekty.

 

Słowem może być komentarz wypowiadany spoza kadru, monolog lub dialog oraz monolog wewnętrzny.

Najważniejszą i najczęściej spotykaną postacią dźwięku jest muzyka. Muzyka np. filmie naukowym powinna  być stosowana w razie potrzeby, a nie jako element rozrywkowy lub ozdobnik.

Cisza natomiast jest typowym środkiem ekspresji – kiedy trzeba powiedzieć dużo, nie mówi się nic, pozostawiając widzowi możliwość odpowiedzi.

 

 

Odgłosy są to wszelkiego rodzaju dźwięki naturalne – szmery, szumy, huki, hałasy, zgiełki, zgrzyty, stukoty itp. Czynią one obraz bardziej realistycznym, zbliżają go do tzw. rzeczywistości, wzmacniają emocjonalność, silnie działają na wyobraźnię, a tym samym są lepiej zapamiętane.

Efektami nazywane są wszelkie dźwięki pozasłowne i niemuzyczne, wywołane sztucznie. Efekty w odróżnieniu od odgłosów nie mogą być stosowane np. w filmach naukowych, gdyż jest to niezgodne zarówno z etyką zawodową realizatorów, jak i tzw. prawdą naukową.

 

SYSTEMY  ZAPISU  MATERIAŁU  DŹWIĘKOWEGO

Materiał dźwiękowy może być nagrywany w różnych systemach zapisu – od podstawowych sposobów, które znamy jako konsumenci i odbiorcy audycji w domowych systemach audio, po bardziej skomplikowane, profesjonalne systemy rejestracyjno-edycyjne, w których możemy wyróżnić:

 

• zapis w jednej ścieżce (monofoniczny),

 

• zapis dwóch ścieżek (stereofoniczny) – jednej dla kanału lewego, jednej dla prawego, w taki sposób, aby wywołać u słuchacza wrażenie rozpoznawania lokalizacji źródeł dźwięku,

• mogą również wystąpić wielokanałowe systemy zapisu dźwięku dookólnego, takie jak np. system 5.1 (czy THX Lucas Film), gdzie zastosowano minimum 5 źródeł dźwięku (głośników i przypisanych im ścieżek dźwiękowych) otaczającego odbiorcę, sprawiające wrażenie zatopienia słuchacza w świecie dźwięków, szczególnie gdy są zsynchronizowane z obrazem filmowym,

 

• występuje także zapis wielośladowy (multitrack), będący profesjonalnym sposobem realizacji dźwięku wielokanałowego, jak również metodą realizacji nagrań studyjnych czy udźwiękowiania choćby najprostszych filmów. Zapis wielośladowy  polega na równoległym wgrywaniu kolejnych monofonicznych lub stereofonicznych ścieżek (śladów), w calu późniejszego ich wspólnego zmiksowania (down mix) – zwanego również zgraniem do postaci jednego z wyżej wymienionych formatów: mono, stereo lub dźwięku dookólnego.

 

 

 

 

 

 

 

 

 

 

 

NOŚNIKI  MATERIAŁU  DŹWIĘKOWEGO

 

Przedstawione powyżej formaty są rejestrowane, odtwarzane, obrabiane i archiwizowane na różnych nośnikach, jakimi mogą być:

 

magnetofon analogowy (MC) – do niedawna najpopularniejszy konsumencki format zapisu dźwięku;

 

rejestrator płyt kompaktowych (CD, CD-R, CD-RW) – najpopularniejszy, cyfrowy format optycznego (laserowego) zapisu dźwięku rozpowszechniony jako konsumencki, lecz dzięki powszechnej dostępności urządzeń zapisujących płyty Audio CD-R (recordalbe – przeznaczone do nagrania) i CD-RW (rewritable – wielokrotnego zapisu) stał się poważnym, profesjonalnym narzędziem;

nagrywarka płyt mini disc (MD) – cyfrowy format magnetooptyczny popularny szczególnie ze względu na możliwość wielokrotnego zapisu dźwięku na niewielkich rozmiarów dyskietkach, opcję nadawania nazw alfanumerycznych kolejnych ścieżek w TOC (Table Of Contence – tablicy zawartości dyskietki), nośnik ten jest bardzo stabilny i przyjazny użytkownikowi; niemożliwe jest przypadkowe uszkodzenie materiału;

 

 

 

magnetofon cyfrowy DAT (Digital Audio Tape) – projektowany w pierwotnych założeniach jako format konsumencki, mający wyprzeć z rynku magnetofony analogowe, jednak szybko stał się narzędziem profesjonalnym, ze względu na wysoką jakość zapisu oraz wiele innych zalet, choćby szczególną stabilność pracy przy zapisie i odtwarzaniu oraz olbrzymie możliwości edycyjne;

rejestratory cyfrowe – często są to przenośne urządzenia służące do realizacji cyfrowych stereofonicznych nagrań audio; najczęściej wyposażone są w pamięć flash lub dysk twardy; obecnie są to najpopularniejsze urządzenia służące do przenoszenia i archiwizacji danych audio w postaci cyfrowej;

magnetofon wielośladowy – może to być urządzenie analogowe lub cyfrowe nagrywające na taśmę magnetyczną, dyski, dyskietki MO i ZIP, dyski twarde HDD (Hard Disc Drive), magnetowidowe kasety standardu S-VHS, płyty CD-R/RW lub DVD-R/RW, mogące rejestrować cztery, osiem, dwanaście, szesnaście, dwadzieścia cztery i więcej śladów obok siebie;

KOMPUTER – wyposażony w odpowiedni osprzęt (hardware), tj. kartę muzyczną i oprogramowanie (software) może stanowić rejestrator oraz edytor plików dźwiękowych, narzędzie obróbki, a także sekwencer MIDI, rejestrator–edytor wielośladowy, magnetofon–edytor cyfrowy i wiele innych narzędzi przetwarzania sygnałów dźwiękowych oraz synchronizacji ścieżek audio z materiałami wideo.

 

KARTA MUZYCZNA - hardware służący do obróbki dźwięku

Podczas gdy płyta główna, pamięć i procesor są mózgiem komputera, jego uszami i strunami głosowymi jest karta muzyczna (karta dźwiękowa).

Podstawowym zadaniem karty muzycznej jest przetwarzanie analogowo-cyfrowe, które obejmuje ciąg procesów (filtrowanie, próbkowanie i zapamiętywanie, kwantowanie i kodowanie) mających na celu zmianę ciągłego sygnału analogowego na dyskretny sygnał cyfrowy (i odwrotnie).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Karty muzyczne dzielą się na:

 

• stereofoniczne, przy użyciu których można wykonywać prace montażowe i postprodukcyjne (mastering) oraz prostsze prace wielośladowe, nie wymagające używania większej ilości równoległych wejść i wyjść,

 

• wielokanałowe, służące do typowej pracy wielośladowej, wyposażone w kombinację wejść i wyjść analogowych i cyfrowych.

 

Dostępne na rynku wysokiej klasy karty dźwiękowe popularyzują się coraz bardziej. Chociaż karty przeznaczone na rynek konsumencki nie zaspokajają specyficznych wymagań stawianych przez zastosowania profesjonalne (np. jednoczesne nagrywanie wielu kanałów), wielokanałowa kontrola dźwięku (Dolby Digital, DTS i inne) to jedna z technologii audio dostępnych już w urządzeniach konsumenckich.

Dobrym przykładem półprofesjonalnych kart dźwiękowych są urządzania firmy Creative z chipsetem Audigy 2 (i 4). Karty te mogą być wykorzystywane np. w domowym studiu nagrań, w wielokanałowym kinie domowym (5.1 i więcej) oraz bardzo dobrze spisują się również w grach (są w pełni kompatybilne ze standardem Sound Blaster, co pozwala uruchamiać także starsze gry).

 

PROGRAMY MUZYCZNE - software służący do obróbki dźwięku

 

Pod pojęciem „programy muzyczne” kryje się wiele różnego rodzaju programów.

Zasadniczo można wyróżnić dwa typy programów myzycznych:

 

edytory plików dźwiękowych (Sound Forge, Wave Lab czy Cool Edit),

 

sekwencery audio (Logic Audio, Cakewalk, Cubase VSTm ProTools).

Edytory dźwiękowe to najczęściej wykorzystywane narzędzie we wszystkich pracach związanych z produkcją dźwięku. Większość osób zajmujących się komputerową obróbką dźwięku korzysta przynajmniej z jednego z trzech programów: Sound Forge, Wave Lab czy Cool Edit Pro.

 

Sonic Foundry Sound Forge to jeden z najbardziej liczących się na rynku profesjonalnych programów do edycji dwuścieżkowego (stereofonicznego) dźwięku dla systemów Windows. Program ten, jak pozostałe, obsługuje częstotliwości próbkowania od 2 do 96 kHz. Zaletą tego programu jest duża ilość obsługiwanych formatów dźwiękowych oraz współpraca z zewnętrznymi sekwencerami i urządzeniami midi. Program ten zawiera zestaw bogatych funkcji edycyjnych, korekcyjnych i efektów, które umożliwiają manipulowanie ścieżkami audio. Jest to bardzo dobre narzędzie służące do edycji audio, wspomagania procesu nagrywania, nakładania efektów dźwiękowych oraz kodowania sygnałów audio.

W ramach tego programu można np. wycinać, wklejać, przesuwać, usuwać, wyciszać, zamieniać, wytłumiać i nakładać ścieżki dźwiękowe. Ponadto SoundForge oferuje ponad 40 efektów oraz ponad 200 wcześniej zdefiniowanych ustawień, m.in: modulacje amplitudy, chorus, pogłos/echo, bramka szumów, flenge, wah-wah. Posiada także korektor: graficzny, parametryczny oraz paragraficzny. Potrafi także symulować różnego rodzaju środowiska rozchodzenia się dźwięków, takie jak: hale koncertowe, jaskinie i setki innych. Posiada także bogate funkcje przetwarzania sygnałów, np.: Mute, konwersja kanałów, normalizacje, poszerzenie obrazu stereo i wiele innych.

Sound Forge obsługuje wiele różnych plików dźwiękowych, m.in.: WMA, WMV, WAV, MOV, PCA, AIF, MP3.

Z niektórymi, najczęściej wykorzystywanymi, funkcjami i możliwościami edycyjnymi programu SoundForge będą mieli Państwo możliwość zapoznać się podczas ćwiczeń.

 

 

 

 

FORMATY  PLIKÓW  AUDIO

Jeszcze kilka lat temu dźwięk zapisywano na taśmach magnetycznych. Posiadały one całkiem przyzwoitą jakość, ale ich podstawowymi wadami były:

• sekwencyjne odtwarzanie utworów oraz

• podatność na uszkodzenia.

To w krótkim czasie przyczyniło się do wyparcia kaset magnetofonowych przez nośniki cyfrowe. Oferują one bowiem bardzo dobrą jakość dźwięku przy stosunkowo nie najwyższych kosztach produkcji. Współcześnie najpopularniejsze są cyfrowe, komputerowe formaty zapisu danych audio, które są coraz bardziej popularne na całym świecie. Chodzi tutaj między innymi o dobrze wszystkim znane pliki MP3, które pozwalają na cyfrowy zapis danych muzycznych w plikach mających kilkakrotnie mniejszą wielkość do plików wydanych na płytach Audio CD.

 

Skąd takie zainteresowanie różnymi plikami muzycznymi?

Na jednej płycie CD można zapisać w formacie Digital-Audio tylko kilkanaście utworów, natomiast na tej samej płycie można zapisać nawet 180 utworów w formacie MP3.

To właśnie sprawia, że dzisiaj komputerowe dane muzyczne są coraz popularniejsze. Jednak formaty komputerowych plików muzycznych to nie tylko MP3!

 

 

Istnieją jeszcze inne formaty zapisu plików muzycznych:

 

• Pliki WAV – to jeden z najstarszych sposobów zapisu komputerowych danych muzycznych. Umożliwia on zapisanie cyfrowych danych w wersji nieskompresowanej, co objawia się dużym zapotrzebowaniem na przestrzeń dyskową, przez co format ten jest rzadko używany do przechowywania danych muzycznych; 

 

• Pliki AC3 – są standardem zapisu dźwięku, który najczęściej stosowany jest na krążkach DVD. Format ten umożliwia zapis danych, wykorzystujący sześć kanałów. Dzięki temu mamy wrażenie, że dźwięk nas otacza (Dolby Surround). Korzysta on z 3 kanałów przednich, 2 tylnich oraz subwoofera.

 

• Pliki AAC (Advanced Audio Codec) jest uznawany za standard kompresji dźwięku MPEG następnej generacji, a to ze względu na fakt, że pozwala on na uzyskanie lepszej jakości dźwięku niż MP3 przy podobnym rozmiarze pliku. Dowiedziono np. że plik w formacie AAC, zakodowany z jakością 96 kb/s, ma lepszą jakość niż plik MP3 zakodowany w 128 kb/s. Nie jest to jednak format popularny, gdyż nie istnieją jeszcze ogólnodostępne aplikacje, które mogłyby w pełni wykorzystać jego możliwości.

 

• Pliki AIFF (Audio Interchange File Format) to jeden z dwóch najczęściej używanych formatów plików na komputerach firmy Apple Macintosh. Rozszerzeniem tego pliku jest *.aif

• Pliki MP2 – to poprzednik plików MP3. Stworzono go w połowie lat dziewięćdziesiątych (w 1994 r.) do cyfrowych przekazów wideo, ale wcale nie jest on jeszcze przestarzały. Jest bowiem nadal popularny wśród użytkowników starszych komputerów ze względu na fakt, że wymaga znacznie wolniejszego procesora niż dekompresja plików MP3. Pliki MP2 (mimo bardzo dobrej jakości) nie są jednak powszechnie używane, z powodu niskiego poziomu kompresji. Przeciętny plik MP2 jest ok. połowę większy niż jego odpowiednik w MP3. Nadal jednak można spotkać filmy zapisane w formacie MPEG, a w takich właśnie filmach dźwięk jest kodowany w standardzie MP2.  

 

• Pliki MP3 i MP3pro:

MP3 jest najpopularniejszym obecnie formatem zapisu danych muzycznych. Pozwala on na zapis w jakości cyfrowej, jednak ze stratą jakości. Od wybranej szybkości strumienia danych zależy jakość utworu. Im większy ustawimy tzw. bitrate, tym kompresja jest mniejsza i jakość dźwięku lepsza.

MP3pro to ulepszona wersja plików MP3. Pozwala zapisać materiał dźwiękowy z nieco lepszą jakością uzyskując nieco mniejsze pliki względem MP3, jednakże niestety nie przyjął się, gdyż – jak się wydaje – internauci rzadko zmieniają swoje przyzwyczajenia.

 

· Pliki OGG (Ogg Vorbis)

Ogg to format kompresji plików audio, który umożliwia zapis danych w formacie cyfrowym, jednakże nie jest on ograniczony żadną umową licencyjną, dzięki czemu producenci mogą stosować ten format kompresji bez zobowiązań finansowych. Z tego powodu OGG może stać się w przyszłości znanym i popularnym sposobem zapisu cyfrowej muzyki. Istotną zaletą formatu OGG jest możliwość obsługi wielokanałowych ścieżek (przestrzenny dźwięk w trybie surround).

 

· Pliki ASF i WMA

ASF (Advanced Streaming Format) – to format stworzony specjalnie na potrzeby internetu. Umożliwia on transmisję danych multimedialnych dla użytkowników posiadających łącze o szybkości przynajmniej 28,8 kb/s. Kiedy format ASF został wprowadzony, producenci stwierdzili, że pliki skompresowane do tego formatu będą prawie dwukrotnie mniejsze od plików MP3 przy podobnej jakości dźwięku. Jednak liczne testy, jakie zostały przeprowadzone przez organizacje, jak również przez użytkowników domowych, dowodzą, że to nie do końca prawda. Zauważono bowiem znaczne obniżenie jakości odwzorowywanego dźwięku z powodu stosowania algorytmów kompresji do formatu ASF.

WMA (Windows Media Audio) to pliki ASF, tyle że zawierają one tylko dźwięk. WMA znakomicie radzi sobie z kompresją muzyki, jednak jeśli chodzi o kompresję zapisanej mowy, to niestety ustępuje on innym formatom. Mocrosoft położył bardzo duży nacisk na ochronę przed nielegalnym kopiowaniem, co sprawia, że odtwarzanie plików zakodowanych do formatu ASF i WMA na jednym komputerze, na innych komputerach jest raczej niemożliwe. Powoduje to, że przeciętni użytkownicy raczej unikają tego formatu.

· Pliki VQF

TwinVQ (Transform-domain Weightes Interleave Vector Quantization) to format dźwięku, który jest konkurencją dla najpopularniejszego obecnie formatu plików dźwiękowych, a mianowicie MP3. Podstawową zaletą tego formatu jest fakt, że pozwala on na uzyskanie dużo lepszej jakości niż MP3. Liczne testy wskazują, że plik zakodowany w formacie VQF, mający gęstość danych 96 kb/s, ma porównywalną jakość do plików MP3 zakodowanych w jakości 160 kb/s, a czasem nawet 192 kb/s! Format ten nie jest jednak popularny.

Na jego niekorzyść przemawiają bowiem dwa fakty:

 

-          dekodery formatu VQF zużywają od 10 do 20% mocy obliczeniowej więcej niż dekodery MP3, a proces kodowania trwa o wiele dłużej,

-          liczba dostępnych w Internecie plików VQF jest znikoma w stosunku do plików MP3. Poza tym liczba programów kodujących również pozostawia wiele do życzenia.

 

DVD – nośnik multimedialny

 

 

DVD jest udoskonalonym nośnikiem informacji w postaci dysku optycznego o rozmiarach i wyglądzie identycznym jak Audio CD. Charakteryzuje go jednak znacznie większa gęstość zapisu informacji, którą uzyskano dzięki zmniejszeniu rozmiarów pitów, będących obszarami rejestracji pojedynczych bitów. Istotne znaczenie ma także zmniejszona odległość między ścieżkami zapisu. Płyty DVD są bardzo dobrym nośnikiem różnorodnych informacji (programów komputerowych, gier elektronicznych, muzyki i innych materiałów).

 

Obecnie mamy do dyspozycji różne standardy zapisu danych na płytach CD i DVD. Są to:

 

CD-R (CD Recordable) – jest to technologia nagrywania danych i muzyki na dyskach CD. Umożliwia jednokrotne dokonanie zapisu. Pojemność płyty to 650 (700) MB danych lub 74 (80) minut muzyki,

 

CD-RW (CD ReWritable) – jest to technologia wielokrotnego zapisu na dyskach CD,

 

DVD (Digital Versatile Disc) – są to uniwersalne (filmy, dźwięk i dane) dyski optyczne, wprowadzone na rynek w 1996 roku; maja takie same wymiary co krążki CD, lecz dysponują większą pojemnością (mieszczą 4-28 razy więcej danych),

 

 

Obecnie mamy do dyspozycji różne standardy zapisu danych na płytach CD i DVD. Są to:

 

DVD-Audio – jest to format zapisu muzyki wprowadzony w połowie 2000 r.; DVD-Audio oferuje rozdzialczość 16-, 20- i 24-bitową przy częstotliwościach próbkowania od 44,1 do 192 kHz,

 

DVD-RW (DVD ReWritable) – to format wielokrotnego zapisu na dyskach DVD, opracowany przez firmę Pioneer; DVD-RW umożliwia zapis i odczyt maksymalnie 4,7 GB danych,

 

DVD-RAM (DVD Random Access Memory) – to nośnik DVD wielokrotnego zapisu promowany przez firmy Panasonic, Hitachi i Toshiba. Pierwsze napędy DVD-RAM wprowadzono na rynek wiosną 1998 r.; oferowały one pojemność 2,6 GB (dwustronnie); dyski DVD-RAM ver.2 o pojemności 4,7 GB pojawiły się pod koniec 1999 r., a dwustronne płyty 9,4 GB w 2000 r.; napędy DVD-RAM odczytują dane z nośników DVD-Video, DVD-ROM i CD,

 

 

Obecnie mamy do dyspozycji różne standardy zapisu danych na płytach CD i DVD. Są to:

 

DVD+RW (DVD ReWritable) – to format wielokrotnego zapisu, opracowany przy współpracy firm Hewlett-Packard, Mitsubishi Chemical, Philips, Ricoh, Thomson, Sony i Yamaha gwarantuje pełną zgodność z dostępnymi odtwarzaczami DVD-Video i napędami DVD-ROM,

 

SACD (Super Audio CD) – to format zapisu dźwieku na płytach laserowych opracowany przez firmy Sony i Philips; oferuje on jakość dźwięku co najmniej równie dobrą, co konkurencyjny DVD-Audio; nie jest jednak zgodny ze standardem DVD, lecz można płyt SACD używać w zwykłych odtwarzaczach CD z odpowiednio niższą jakością dźwięku

 

OBRAZY

Obrazy – zarówno odbierane z zewnątrz (np. w postaci dzieł sztuki, ilustracji, filmów, plakatów czy zdjęć), jak i wewnętrzne – w postaci wyobrażeń – są istotnym składnikiem ludzkiego doświadczenia.

O ich znaczeniu w procesach komunikowania się ludzi i przekazywania treści kulturowych świadczy choćby fakt, że można je znaleźć w każdej rozwiniętej cywilizacji, niezależnie od czasu i miejsca jej powstania.

W procesach poznawczych obrazy są jednym z podstawowych sposobów reprezentacji świata, wyprzedzającym w ontogenezie reprezentację werbalną. 

Przez większą część drugiej połowy minionego tysiąclecia dystrybucja tekstu stała się znacznie prostsza niż reprodukcja obrazów.

Wynalazek ruchomej czcionki umożliwił dostęp do tekstu masom, lecz obrazy musiały być nadal pracowicie rzeźbione w drewnie, grawerowane w metalu lub przetwarzane na miliony punktów, zanim mogły być drukowane.

Telegraficzny przekaz tekstu wyprzedził o niemal wiek przesyłanie zdjęć po łączach telefonicznych oraz faksy, a pierwsze 35 lat ery komputerów zdominowane były przez teksty i liczby.

 

ZALETY  FOTOGRAFII  CYFROWEJ

Dopiero od kilku lat aparaty cyfrowe i skanery zapewniają technologię, dzięki której można umieszczać tekst i zdjęcia w dokumentach, prezentacjach multimedialnych, stronach internetowych i innych elektronicznych mediach.

Zalety fotografii cyfrowej są następujące:

 

• jeśli posiadamy aparat cyfrowy, komputer i drukarkę, możemy zgrać zdjęcia, udoskonalić je lub wyretuszować oraz rozpowszechniać w formie wydruków, przez pocztę elektroniczną albo strony internetowe,

• wszystkie te operacje można wykonać w przeciągu kilku minut lub godzin, niezależnie od: producentów filmów fotograficznych, wykonawców  odbitek, zawodowych retuszerów, czy np. Poczty Polskiej.

 

WADY  FOTOGRAFII  CYFROWEJ

Wady fotografii cyfrowej:

 

•  aparaty cyfrowe są droższe niż tradycyjne aparaty kompaktowe o takich samych parametrach i jakości,

 

•  cyfrowy „film”, mimo iż wielokrotnego użytku, nadal jest dość kosztowny,

 

•  wytwarzane komputerowo zdjęcia są nadal droższe niż tradycyjne.

 

CZĘŚCI  SKŁADOWE  APARATU  CYFROWEGO

Aparaty cyfrowe różnią się wyglądem, ale mają pewne cechy wspólne. Mimo iż umiejscowienie niektórych komponentów może się nieznacznie różnić, a korpus aparatu może być prostokątny, sześcienny lub zaokrąglony, wszystkie aparaty cyfrowe mają:

•  obiektyw,

•  wizjer,

•  kolorowy wyświetlacz LCD służący do przeglądania zdjęć i wyświetlania menu,

•  spust migawki,

 

•  grupę przycisków sterujących.

Większość aparatów cyfrowych wyposażona jest również w:

• gniazdo dla kart pamięci, takich jak np. karty SmartMedia czy CompactFlash,

• wbudowaną lampę błyskową,

• umieszczony w górnej części monochromatyczny wyświetlacz, na którym można odczytać liczbę pozostałych „klatek”, aktualny tryb pracy aparatu i inne informacje,

• gniazdo portu USB umożliwiające połączenie aparatu z komputerem i zgranie zdjęć,

• w aparacie może być również gniazdo statywu oraz

• port podczerwieni służący do bezprzewodowego przesyłania fotografii.

RODZAJE  APARATÓW  CYFROWYCH

Większość aparatów cyfrowych można przydzielić do jednej z kilku kategorii:

proste aparaty kompaktowe

do tej kategorii można zaliczyć aparaty dające obraz jakości kamery internetowej; mają one: rozdzielczość 1024x768 lub 1280x960 (tj. około 0,8 – 1 megapiksela),  wbudowaną lampę błyskową oraz obiektyw o stałej ogniskowej,

 

modele średnio zaawansowane

najbardziej popularne, mieszczą się w granicach rozdzielczości 2-3 megapikseli, mają obiektywy zmiennoogniskowe,

 

modele zaawansowane

posiadają rozdzielczość od 3-6 megapikseli, większy zakres zmiany ogniskowej, funkcje sterowania ręcznego, mają bardzo wiele trybów pracy i bardzo rozbudowane menu,

modele półprofesjonalne

posiadają rozdzielczość powyżej 6 megapikseli oraz wszystkie ważne funkcje, które można znaleźć w konwencjonalnej lustrzance; spotyka się tu czasem aparaty bazujące na korpusach popularnych lustrzanek małoobrazkowych takich producentów jak Fuji, Canon lub Nikon z tą różnicą, że mają one nieruchomy czujnik w miejscu ścieżki przesuwu filmu,

modele profesjonalne

pod każdym względem dorównują profesjonalnym aparatom konwencjonalnym; posiadają m.in.: wymienne obiektywy, przystawki do zbliżeń, precyzyjny podgląd przez obiektyw itd.

 

CECHY  APARATÓW  CYFROWYCH

wymagania wobec obiektywu

obiektyw jest „okiem” aparatu, które wychwytuje i skupia światło z fotografowanej sceny na czujniku; obiektyw aparatu cyfrowego ma wpływ zarówno na jakość obrazu, jak i na rodzaj zdjęcia, które można nim wykonać; warto wybrać obiektyw zmiennoogniskowy, gdyż zapewnia on wygodne przybliżanie obrazu lub jego oddalanie bez konieczności podchodzenia bliżej lub odchodzenia dalej od fotografowanego obiektu (tylko najtańsze aparaty nie mają obiektywu zmiennoogniskowego); niektóre obiektywy oferują mały stosunek powiększenia (np. 2:1 lub 3:1),w którym zbliżenie daje dwu- lub trzykrotnie większy obraz niż ten zrobiony bez użycia zoomu; droższe aparaty mają większy zakres zmian ogniskowej: od 4:1 do 10:1 i większy;

wymagania wobec obiektywu (ciąg dalszy)

 istnieją dwa rodzaje zoomu:

- w przypadku zoomu optycznego zmienia się wzajemny stosunek poszczególnych elementów obiektywu, co powoduje zmianę powiększenia; zapewnia to ostry obraz przy każdym stopniu powiększenia,

- aparaty cyfrowe mają również zoom cyfrowy, w którym pozorne powiększenie osiągane jest przez programowe powiększanie środkowej części obrazu; daje to znacznie gorszą ostrość niż tę, którą uzyskuje się przy wykorzystaniu zoomu optycznego,

wybór rozdzielczości

rozdzielczość obrazu (liczba elementów lub pikseli obrazu), jaką jest w stanie osiągnąć aparat cyfrowy, może decydować o tym (wspólnie z jakością obiektywu), jak ostre będą zdjęcia;

rozdzielczość mierzona jest liczbą pikseli szerokości na liczbę pikseli wysokości, które mogą być wychwycone przez czujnik aparatu (matryce);

wybór rozdzielczości

istnieją trzy zasadnicze grupy rozdzielczości:

niska rozdzielczość (640x480, 1024x768, 1280x960) stosowana jest do zdjęć na strony internetowe, zdjęć, które nie muszą być kadrowane i takich, które nie będą drukowane w dużych formatach,

średnia rozdzielczość (rzędu 1600x1200 pikseli) stosowana jest do zdjęć, które będą kadrowane lub drukowane na dużych formatach (ok. A4),

wysoka rozdzielczość (1894x1488 i więcej) stosowana jest do zdjęć, z których można wycinać małe fragmenty lub drukować je na formatach większych od A4;

 

w większości aparatów istnieje możliwość zmiany rozdzielczości, dzięki czemu można ją dostosować do zaplanowanej pracy;

opcje przechowywania w pamięci

prawie wszystkie aparaty cyfrowe mają wymienną pamięć jakiegoś typu (np. CompactFlash, SmartMedia, Sony Memory Stick lub jakąś inną); im więcej zdjęć chcemy zrobić w danej sesji, tym większa ilość pamięci będzie nam potrzebna (współcześnie najczęściej używane są karty o pojemnościach od 64 do 512 MB),

wizjery

wszystkie dzisiejsze aparaty cyfrowe zawierają wizjer optyczny, który może być wykorzystany do szybkiego kadrowania obrazu oraz wyświetlacz ciekłokrystaliczny najczęściej umieszczony na tylnej ściance aparatu, służący do bardziej precyzyjnej kompozycji i podglądu zdjęcia (lustrzanki, w których obraz wizjera jest tym samym, który wpada do obiektywu, mogą nie mieć wyświetlacza LCD);

ważne jest, aby wyświetlacz był stosunkowo jasny i pobierał mało energii z baterii.

 

SKANER

Skanery i cyfrowe aparaty fotograficzne uzupełniają się wzajemnie. Aparat cyfrowy jest niezależnym, przenośnym urządzeniem, które można zabrać ze sobą w każde miejsce, aby zarejestrować obrazy obiektów trójwymiarowych praktycznie dowolnych rozmiarów. 

Skaner natomiast, po przyłączeniu do komputera, sprawdza się doskonale w zapisywaniu do postaci cyfrowej obrazów małych obiektów przy jednoczesnym zachowaniu wysokiej rozdzielczości, szczególnie w przypadku dwuwymiarowych oryginałów w formacie A4 lub mniejszych.

 

NAJCZĘSTSZE  ZASTOSOWANIA  SKANERÓW

• przetwarzanie tekstu drukowanego na edytowalny dokument przy użyciu aplikacji do rozpoznawania znaków (OCR); dokumentami takimi mogą być listy, ulotki, artykuły prasowe i inne materiały drukowane,

• wykonywanie kopii bez użycia kserokopiarki (z wykorzystaniem skanera i drukarki),

• wysyłanie faksów przy użyciu faksmodemu, znajdującego się w komputerze,

• cyfrowe zapisywanie tradycyjnych zdjęć do wykorzystania np. w prezentacjach, e-mail’ach czy stronach ianternetowych,

 

• skanowanie dokumentów takich jak listy, faksy, notatki i raporty dla potrzeb systemów zarządzania obiegiem dokumentów.

 

RODZAJE  SKANERÓW

Praktycznie wszystkie skanery składają się z tych samych elementów:

 

• źródła światła,

 

• czujnika przetwarzającego obraz linia po linii,

 

• pewnego rodzaju ruchomego lustra lub karetki, która umożliwia czujnikowi podgląd obrazu albo też skanowanie wyłącznie jednej linii w danej chwili,

 

• obwodów elektronicznych, przekształcających zarejestrowane informacje na postać cyfrową.

 

Główne różnice pomiędzy różnymi rodzajami skanerów istnieją w fizycznym sposobie ułożenia tych komponentów, ich połączeniach elektrycznych oraz jakości samych elementów składowych.

• wśród urządzeń „z górnej półki” znajdziemy skanery bębnowe – drogie urządzenia o wysokiej rozdzielczości z separacją kolorów, używane zazwyczaj w przemyśle graficznym;

w tych urządzeniach praca graficzna zawijana jest wokół obrotowego bębna, obracana z dużą prędkością i oświetlana przez laser, co pozwala uzyskać obrazy z dużą ilością szczegółów,

• najczęściej korzysta się ze skanerów płaskich, które przypominają kserokopiarkę pod względem wyglądu oraz sposobu działania; obiekt skanowany umieszczany jest na szybie obrazem do dołu;

skanery te można wykorzystać dla dowolnych nieprzezroczystych przedmiotów, mieszczących się na szklanej płycie; przy otwartej pokrywie można skanować nawet grube przedmioty, natomiast bardzo duże prace graficzne można skanować partiami, a następnie połączyć je w programie do edycji obrazu;

istnieją także przystawki do skanerów płaskich, które pozwalają na skanowanie obrazów z przezroczy i negatywów,

• czasami można spotkać sprzęt specjalistyczny, nazywany skanerem arkuszowym; działa on podobnie do faksu, strona po stronie przesuwając płaskie oryginały poprzez skaner; skanery arkuszowe występują jako części faksu lub urządzenia typu „wszystko w jednym”,

urządzenia wielofunkcyjne łączą w sobie możliwości skanowania, kopiowania i faksowania; sprawdzają się w małych biurach,

skanery do zdjęć przeznaczone są dla użytkowników, którzy chcą zapisywać swoje zdjęcia w postaci cyfrowej, aby móc je komputerowo modyfikować lub wydrukować na drukarce atramentowej o jakości fotograficznej,

skanery slajdów służą do skanowania slajdów o szerokości 35 mm; mają zazwyczaj zastosowanie profesjonalne,

skanery przezroczy służą do skanowania obrazów negatywów i przezroczy o rozmiarach 6x6 cm i większych;

• istnieją także skanery ręczne.

 

KATEGORIE  SKANERÓW  PŁASKICH

skanery klasy podstawowej

posiadają ograniczone możliwości skanowania, z małą prędkością i słabą jakością; przeznaczone są dla początkujących użytkowników, którzy chcą tylko zapisać obrazy, ale nie mają wielkiego doświadczenia w pracy z grafiką,

skanery klasy średniej

generują lepszą jakość skanów dzięki wydajniejszym czujnikom i lepszej optyce; przeznaczone są dla osób tworzących grafikę internetową lub przetwarzających odbitki fotograficzne na pliki cyfrowe;

zazwyczaj mają one dodatkowe cechy, takie jak duża liczba przycisków na panelu czołowym dla kilku różnych funkcji, np. skanowania, kopiowania, poczty e-mail; towarzyszyć im może bardziej wyrafinowane oprogramowanie, umożliwiające bardziej zaawansowaną edycję obrazu;

do tych skanerów często można dokupić przystawki umożliwiające skanowanie slajdów i negatywów oraz automatyczny podajnik dokumentów,

skanery zaawansowane

są zazwyczaj szybsze i wyposażone w oprogramowanie, które umożliwia wszelkie operacje związane ze skanowaniem, modyfikowaniem obrazów, wykonywaniem kopii, załączeniem obrazów do wiadomości e-mail oraz wysyłaniem faksów; wśród oprogramowania znajduje się także zazwyczaj możliwość optycznego rozpoznawania znaków (OCR), a często także program do zarządzania dokumentami, pozwalający zorganizować w przeszukiwalną bazę danych zbiór listów, notatek, raportów i innych dokumentów;

skaner tego typu przeznaczony jest zatem do zaawansowanych zastosowań osobistych lub firmowych,

skanery półprofesjonalne

posiadają najlepsze czujniki i układy optyczne; mogą mieć one wbudowany osprzęt do przetwarzania obrazu, który optymalizuje skany przed przesłaniem ich do komputera, co pozwala osiągnąć doskonałą jakość obrazu.

 

CECHY  SKANERA

jakość skanu

za jakość obrazu odpowiadają głównie typ zastosowanego czujnika oraz układu optycznego, użytego w urządzeniu; istnieją dwa rodzaje czujników:

 

-          CCD (charge-coupled device – przyrząd o sprzężeniu ładunkowym) – jest to bardzo czuły, nieruchomy czujnik o szerokości 4 do 5 cm i stosunkowo jaskrawym świetle (lampy fluoroscencyjnej) oraz precyzyjna optyka i lustra,

-          CIS (contact image sensor – stykowy czujnik obrazu) – czujnik, którego szerokość odpowiada szerokości skanowanego obszaru, porusza się pod szybą w odległości kilku milimetrów od oryginału, który jest oświetlany za pomocą słabego światła czerwonego, zielonego i niebieskiego z diod świecących LED; z powodu tej konfiguracji skanery CIS mają ograniczoną głębię ostrości i oświetlenia, dlatego też skanowany obiekt musi być bardzo płaski i znajdować się bardzo blisko powierzchni szyby,

prędkość skanera

jeśli wykonuje się wiele skanów lub tworzy się skany o wysokich rozdzielczościach z oryginałów o dużych rozmiarach, prędkość skanera okazuje się istotna;

najczęściej jest tak, że czym skaner szybszy, tym lepszy,

 

 

rozmiar skanowania

skanery płaskie mają fizyczne ograniczenia odnośnie rozmiaru oryginałów, które można skanować w jednym cyklu; najpopularniejszy rozmiar to ok. 22x30 cm (tj. trochę więcej niż A4);

droższe skanery półprofesjonalne lub modele profesjonalne mogą obsługiwać format A3 i większe,

rozmiary fizyczne skanera

obecnie większość skanerów płaskich jest zazwyczaj niewiele większa od największego skanowanego przez nie rozmiaru, natomiast urządzenia większe praktycznie wyszły już z produkcji; warto wybrać skaner zasilany z portu USB, gdyż nie trzeba przejmować się niewygodną kostką zasilacza,

oprogramowanie

niektóre skanery sprzedawane są wraz z bardzo dużą ilością oprogramowania, łącznie z programami do optycznego rozpoznawania znaków (OCR), edytorami obrazu od Photoshopa do PhotoDeluxe, programami do zarządzania dokumantami, kopiowania itp.; warto porównać ceny i unikać płacenia za oprogramowanie, które nie jest potrzebne („darmowe” oprogramowanie dołączane do skanera, wliczone jest w cenę skanera!),

głębia koloru

odnosi się do liczby różnych kolorów, które skaner może zarejestrować i jest zazwyczaj mierzona w bitach; im więcej bitów, tym więcej kolorów może (teoretycznie) obsłużyć dany skaner; np. 24-bitowy skaner może zarejestrować 16,7 miliona kolorów; niestety większość skanerów traci część informacji (i potencjalnie kolorów) z powodu tzw. stosunku sygnału do szumu, który wynika z zastosowania określonych układów elektronicznych i np. 24-bitowy skaner może w efekcie dać zaledwie 20 bitów użytecznych informacji i o wiele mniejszą liczbę kolorów niż potrzeba do wiernej reprodukcji obrazu,

interfejs skanera

w przeszłości interfejs, który służył do łączenia skanera z komputerem, odgrywał istotną rolę, gdyż łączono skaner przez wolny port drukarki (LPT), co wpływało na powolną pracę skanera; obecnie większość skanerów jest podłączona przez uniwersalną magistralę szeregową (USB 1.1, 2.0) lub port FireWire (IEEE 1394),

rozdzielczość skanera

większość skanerów ma obecnie większą rozdzielczość niż potrzeba, w zupełności bowiem do większości (nawet profesjonalnych!) zastosowań wystarczy rozdzielczość 600x600 dpi.

 

 

 

 

 

OPROGRAMOWANIE do edycji obrazów

Dla większości program do edycji obrazów ma być połączeniem prostoty w użytkowaniu z funkcjami, umożliwiającymi usuwanie efektu czerwonych oczu, usuwanie zbędnych przedmiotów lub poprawę jakości koloru. Istnieje wiele programów do edycji obrazów.

Niektóre z nich są tak proste w użyciu, że w ogóle nie wymagają od użytkowników myślenia, inne są wyposażone w łatwe do opanowania narzędzia, dające możliwość rozwiązania problemów z niedoskonałymi zdjęciami. Są również programy profesjonalne, ale zwykle kosztują więcej niż bardzo dobry aparat cyfrowy.

Omówię kilka najważniejszych pakietów, jakie są obecnie dostępne na rynku. We wszystkich można pracować z różnymi formatami plików, od BMP poprzez TIFF do JPEG.

 

Adobe PhotoShop Elements

jest dostępny dla systemów operacyjnych Windows i MacOS i wygląda, a także działa podobnie jak sam PhotoShop; zapewnia pełen dostęp do tworzenia obrazów na warstwach, do wszystkich popularnych filtrów programu PhotoShop i innych narzędzi; najważniejsze jest to, że jego cena wynosi ok. 400 zł, czyli jedną ósmą ceny programu PhotoShop,

Adobe PhotoShop

to najważniejszy program dla profesjonalnych grafików; w programie znajdują się wszystkie narzędzia do wprowadzania korekt, do retuszowania i tworzenia kompozycji, jak również wszelkie funkcje umożliwiające uzyskiwanie obrazu w formatach pozwalających na jego komercyjne powielanie,

Adobe Photo Deluxe

jest to jeden z tych programów, które nie wymagają myślenia od użytkownika i wypełnione są kreatorami; przeprowadzają one użytkownika krok po kroku przez najpopularniejsze zadania, związane z edycją obrazu; można usuwać efekt czerwonych oczu, poprawiać obraz i kolory, wysyłać fotografię pocztą elektroniczną lub tworzyć kalendarze i kartki pocztowe, używając gotowych szablonów,

Corel Photo-Paint

pod wieloma względami dorównuje programowi Photoshop; wśród zalet tego programu należy wymienić bibliotekę tekstur, różne typy pędzli oraz możliwość importowania wielowarstwowych plików PhotoShop PSD i ich edycji; program ten ma prostszy interfejs niż PhotoShop,

Corel Custom Photo

jest odpowiednikiem Adobe Photo Deluxe; zawiera również funkcje kartek pocztowych, kalendarza, transferu na koszulki itp.; jego zaletą jest 10 000 fotografii i innych obrazów, które użytkownik może umieszczać na swoich własnych obrazach; ponadto program ten posiada wiele kreatorów i kosztuje tylko ok. 100 zł,

Microsoft PictureIt!

dostępnych jest wiele różnych wersji tego programu, wszystkie „z aspiracjami”, aby dorównać programowi PhotoDeluxe i wszystkie w cenie poniżej 240 zł;

Program PictureIt! Photo wyposażony jest w skromną liczbę gotowych fotografii i w bardzo prosty interfejs, natomiast program

PictureIt! Publishing (dostępny w wersjach Silver, Gold i Platinum) przeznaczony jest do robienia pocztówek i listów; najbardziej rozbudowany z nich,

PictureIt! Photo Premium, zawiera bardziej zaawansowane narzędzia do usuwania efektu czerwonych oczu, poprawiania jasności, ostrości i koloru, a także zorganizowane w formie galerii funkcje do zarządzania obrazami.

 

Popularne formaty plików graficznych

BMP - jeden z formatów plików danych z grafiką bitmapową. Opracowany pierwotnie jako natywny dla systemu OS/2, wykorzystywany później także w interfejsach systemów z rodziny Microsoft Windows, jednak dostępny jako format przechowywania danych również na wszystkich pozostałych platformach. Zawiera w sobie prostą kompresję bezstratną RLE (która nie musi być użyta), informację o użytych kolorach. Obsługuje tylko tryb RGB

TIFF (z ang. Tagged Image File Format) - jeden z najbardziej rozpowszechnionych i uniwersalnych formatów plików graficznych. Służy do zapisywania grafiki bitmapowej. Opracowany w 1986 roku przez grupę firm pod przewodnictwem Aldus Corporation do drukowania postscriptowego. W pracach nad nim uczestniczył też Microsoft i Hewlett-Packard. Pliki zapisane w tym formacie mają rozszerzenie ".tif" lub ".tiff". Format pozwala na zapisywanie obrazów stworzonych w trybie kreskowym, skali szarości oraz w wielu trybach koloru i wielu głębiach bitowych koloru. Może zawierać prewkę (podgląd w niskiej rozdzielczości), ścieżki i kanały alfa, profile koloru, komentarze tekstowe. TIFF umożliwia stosowanie kompresji bezstratnej typu LZW oraz CCITT Group 4. Używany jest obecnie w DTP jako jeden z podstawowych formatów w tej branży. Umożliwia także zapisywanie dokumentów wielostronicowych, co jest wykorzystywane np. w faxach.

JPEG to jeden z formatów plików graficznych i jednocześnie nazwa algorytmu kompresji danych zastosowanego w tym formacie oraz skrót niezależnej grupy ekspertów, która wymyśliła ten algorytm (poprawna "zwyczajowa" wymowa "dżej-peg" pochodzi od "Joint Photographic Experts Group"). Pliki zapisywane w tym formacie mają rozszerzenia "jpg" lub "jpeg".

JPEG jest formatem plików stworzonym do przechowywania obrazów, które wymagają "pełnego koloru", ale nie mają zbyt wielu ostrych krawędzi i małych detali - a więc zdjęć pejzaży, portretów i innych "naturalnych" obiektów. Format JPEG, obok formatu GIF jest najczęściej stosowanym formatem grafiki na stronach WWW.

Algorytm kompresji używany przez JPEG jest algorytmem stratnym, tzn. w czasie jego wykonywania tracona jest bezpowrotnie część pierwotnej informacji o obrazie.

· GIF (ang. Graphics Interchange Format) to format pliku graficznego z kompresją bezstratną. Pliki tego typu są bardzo często używane na stronach WWW. Wadą formatu GIF jest brak możliwości zapisu plików graficznych w formacie TrueColor. Plik w formacie GIF może zawierać kilka obrazów wyświetlanych sekwencyjnie, co umożliwia tworzenie prostych animacji (są one często wykorzystywane na stronach WWW).

 

Drukowanie obrazów cyfrowych

Zaletą fotografii cyfrowej jest to, że nie wszystkie wykonane zdjęcia cyfrowe przetwarzane są w odbitkę.

Najprostszym sposobem uzyskania dobrej jakościowo odbitki fotografii cyfrowej jest skorzystanie z usług studia fotograficznego. W tego typu zakładach można wydrukować zdjęcie bezpośrednio z karty aparatu (oraz dyskietki lub płyty CD), można również przesłać zdjęcie drogą elektroniczną.

Jednakże aby uzyskać najlepszą jakość wydruku zdjęcia, należy dobrać odpowiednio rozmiar obrazu drukowanego do rozdzielczości zdjęć drukowanych z aparatu cyfrowego, co przedstawiono w poniższej tabeli:

 

Rozdzielczość aparatu

Max. Zalecany rozmiar odbitek

640 x 480 pikseli

0,3 megapiksela

9 x13 cm

1024 x 768 pikseli

0,8 megapiksela

13 x 18 cm

1280 x 960 pikseli

1,2 megapiksela

20 x 25 cm

1600 x 1200 pikseli

1,9 megapiksela

28 x 35 cm

2400 x 1600 pikseli

3,8 megapiksela

51 x 76 cm

 

 

Telewizja

 

Pierwsze eksperymentalne programy telewizyjne zostały nadane w 1925 r. w laboratoriach Anglii i Stanów Zjednoczonych za pomocą bardzo prymitywnych urządzeń analizujących i syntetyzujących. Podczas II wojny światowej tylko Stany Zjednoczone zdołały uruchomić kilka doświadczalnych stacji telewizyjnych. Upowszechnienie telewizji nastąpiło dopiero po zakończeniu wojny. W roku 1954 w Stanach Zjednoczonych rozpoczęto regularną emisję programów.

W wyniku gwałtownego rozwoju telewizji po drugiej wojnie światowej zaszła potrzeba opracowania urządzenia do zapisywania i odczytywania sygnałów wizyjnych w podobny sposób jak w radiofonii. Pierwsze tego typu urządzenia zaprezentowano w 1955 r. w USA.

 

 

Cyfrowa rewolucja w świecie wideo

 

W drugiej połowie lat 90-tych XX wieku dokonała się „cyfrowa rewolucja w świecie wideo”. Stwierdzenie to dotyczy tak naprawdę trzech czynników:

bardzo wydajnych komputerów z oprogramowaniem edycyjnym,

szybkich interfejsów cyfrowych, takich jak FireWire, umożliwiających przechwytywanie materiału z kamery bez konieczności zastosowania drogiego sprzętu oraz

wysokiej jakości kamer, dostępnych za przystępną cenę.

Te właśnie kamery, pod koniec lat 90-tych, dały wielu ludziom możliwość tworzenia cyfrowych produkcji, a komputery i interfejsy pozwoliły im na korzystanie z potencjału cyfrowego montażu.

 

 

Cyfrowa technologia wideo

 

Wiadomo, że współcześnie najdoskonalszym sposobem przechowywania i dystrybucji danych wideo jest zastosowanie technologii cyfrowych. Urządzenia tego typu można podzielić na kilka kategorii:

• stacjonarne urządzenia domowe (stacjonarne odtwarzacze i nagrywarki DVD, telewizory cyfrowe),

• komputerowe urządzenia wejścia (kamery internetowe, kamery cyfrowe, karty wideo),

komputer służący do montażu materiału wideo,

• komputerowe urządzenia wyjścia (projektory multimedialne).

Do cyfrowej obróbki materiału wideo potrzebne jest także stosowne oprogramowanie oraz wiedza o najpopularniejszych formatach plików wideo (VCD, SVCD, DVD) oraz sposobach ich kompresji.

 

 

Kino domowe

 

Kino domowe jest rozwiązaniem technologicznym, pozwalającym na odtwarzanie wysokiej jakości programów telewizyjnych i innych danych audiowizualnych,

np. filmów.

Jest ono tworzone przez:

 

 

• odtwarzacz lub nagrywarkę DVD,

• urządzenie wyświetlające obraz,

• zestaw głośników ze wzmacniaczem.

 

 

1. Odtwarzacz lub nagrywarka DVD, która zapewnia wysoką jakość zapisu obrazu i dźwięku, możliwość wyboru ścieżki dźwiękowej, wyświetlanie napisów w jednym z kilkunastu języków oraz dostęp do dodatkowych materiałów filmowych zawartych na płycie. Dostępne na rynku odtwarzacze dzielą się na dwie grupy:

-          odtwarzacze wyposażone w dekoder dźwięku obsługujący standard Dolby Digital 5.1 (tj. sześć całkowicie niezależnych kanałów – 5 dla głośników i 1 dla subwoofera) lub DTS (stanowiący alternatywę wobec pierwszego, gdyż zapewnia nieco czystszy dźwięk i lepiej odseparowane kanały, ale zajmuje czterokrotnie więcej miejsca na dysku DVD)

-           

 

 

 

pozostałe odtwarzacze pozwalają na przesłanie zakodowanego sygnału cyfrowego do urządzenia audio, najczęściej amplitunera z dekoderem.

 

 

2. Urządzenie wyświetlające obraz.

Istnieją 3 typy urządzeń wyświetlających:

                - kineskopowe (mogą mieć obraz panoramiczny – 16x9, a więc format odpowiedni dla filmów przygotowywanych do kin i ich edycji rozpowszechnianych na DVD; w tradycyjnym telewizorze z kineskopem o proporcjach 4x3 obraz panoramiczny pokazywany jest z czarnymi polami na górze i dole ekranu, przez co traci się niemal połowę jego powierzchni; płaski obraz zapewnia większy realizm a bardzo dobrą jakość i stabilność obrazu uzyskuje się w telewizorach 100 Hz),

 

                - plazmowe (są znacznie droższe od kineskopowych, jednakże ze względu na rozmiary mogą być np. powieszone na ścianie, gdyż ich grubość nie przekracza zwykle kilkunastu centymetrów),

-    projektory (pozwalają na uzyskanie największych obrazów, których przekątna przekracza nawet 100 cali; najczęściej rzucają obraz na ścianę lub ekran).

 

 

3. Zestaw głośników ze wzmacniaczem

(najczęściej jest to 5          głośników i subwoofer – lewy, prawy i centralny, 2 tylne i 1 głośnik niskotonowy).

 

 

Telewizja cyfrowa

 

                Wśród środków masowego przekazu jednym z ostatnich osiągnięć w sferze elektronicznej jest wprowadzenie telewizji cyfrowej. Całkowite ucyfrowienie przekazu telewizyjnego stanowi przełom porównywalny do wprowadzenia telewizji kablowej, gdyż stwarza możliwości realizacji nowych usług multimedialnych, takich jak telewizja interaktywna, dająca możliwość kształtowania indywidualnej oferty programowej przy wykorzystaniu np. zasobów centralnego banku filmów, możliwość korzystania z wielu wariantów dziennika telewizyjnego, transmisji imprezy sportowej ukazywanej z dowolnie przez widza wybranych kamer itd. itp.

 

 

Kamery internetowe

                Cyfrowa kamera wideo przypomina w działaniu skaner – w obu tych urządzeniach obraz jest digitaliziwany. Np. skaner płaski dzieli stronę na siatkę pikseli i próbkuje każdy z nich. Do każdej próbki przypisywana jest następnie wartość liczbowa określająca kolor.

                Kamera internetowa (Webcam) rejestruje obraz, który przesyła bezpośrednio do komputera najczęściej poprzez port USB 1.1 (dawniej przez port szeregowy lub równoległy).

                Tego typu, zwykle kiepskiej jakości, obrazy ruchome mogą być bezpośrednio publikowane na stronach internetowych lub wykorzystywane jako źródło danych wizyjnych w różnego typu komunikatorach oferujących usługę wideotelefonu (np. Microsoft Net Meeting, Windows Messenger, Skype itp.) lub wideokonferencji.

 

                Najważniejszą zaletą kamery cyfrowej, dającą jej przewagę nad kamerą analogową, jest możliwość przesyłania cyfrowego materiału wideo z kamery do komputera, do innej kamery, na płytę DVD lub dysk twardy i z powrotem do kamery, bez utraty jakości obrazu i dźwięku (kopia kopii kasety VHS jest zawsze znacznie gorsza od oryginału!).

 

 

 

 

Kamery cyfrowe – zalety i wady formatów wideo

 

                Kamery oferują możliwość zapisu danych wideo w różnych formatach:

               

- formaty analogowe przeznaczone na rynek konsumencki – to VHS, VHS-C, S-VHS, 8mm i Hi8; zaprojektowano je dla potrzeb domowych zastosowań; nie należą do drogich, ale ich jakość pozostawia wiele do życzenia,

- format Digital 8 – jest cyfrowym formatem zapisu na taśmie 8mm, który z założenia miał zastąpić analogowy format Hi8; można w nim stosować taśmy Hi8 i Digital 8; jego rozdzielczość jest nieco niższa niż formatu DV,

 

- format DV – zaprojektowano jako cyfrowy następca formatów analogowych; jego jakość jest często oceniana wyżej niż jakość oferowana przez standard Betacam SP; dodatkową zaletą tego formatu jest to, że jeszcze długo nie stanie się on przeżytkiem,

 

- format DVCAM opracowany w firmie SONY, charakteryzuje się wyższą prędkością przesuwu taśmy niż format DV, ale niższą niż DVCPro; wykorzystuje takie same taśmy jak format DV; jakość wystarcza do zastosowań w profesjonalnych produkcjach filmowych,

- format DVCPro – opracowany przez firmę JVC, dzięki większej prędkości przesuwu taśmy niż w DVCAM  oferuje bardziej stabilny obraz i mniejszą podatność na zakłócenia i „gubienie” klatek,

 

- Betacam SP (BetaSP) – to format opracowany przez firmę SONY w roku 1980 i jest nadal najpopularniejszym formatem wykorzystywanym w produkcjach telewizyjnych,

- Digital Betacam (DigiBeta) – w roku 1993 firma SONY wprowadziła na rynek system Digital Betacam jako cyfrową wersję rozwojową formatu Betacam SP; doskonała jakość obrazu przyczyniła się do szybkiego rozpowszechnienia tego formatu w stacjach telewizyjnych; wiele znanych filmów (np. Buena Vista Social Club) zostało nakręconych z wykorzystaniem tego formatu.

 

 

Rodzaje kamer cyfrowych

 

•kamera popularna,

 

 

•kamera półprofesjonalna (model półprofesjonalny kosztuje mniej więcej jedną trzecią ceny kamery profesjonalnej i dwa razy więcej niż kamera popularna),

 

 

•kamera profesjonalna.

 

 

Różnice pomiędzy kamerą półprofesjonalną a popularną

 

Różnice pomiędzy kamerą półprofesjonalną a popularną (przeznaczoną dla przeciętnego odbiorcy):

•większy zakres wartości: głębi ostrości, balansu bieli, powiększenia oraz ustawień ekspozycji,

•większa liczba elementów regulacyjnych umożliwiających bardziej precyzyjną kontrolę w czasie wykonywania ujęć niż w przypadku popularnych modeli kamer, w których te same funkcje muszą być wybierane z menu wyświetlacza ciekłokrystalicznego,

 

•rozbudowane opcje rejestrowania dźwięku,

•większa głębia kolorów, większa możliwość regulacji parametrów rejestrowania barw i czystości barw,

•różne nakładki na obiektyw dedykowane dla różnych warunków oświetleniowych podczas rejestrowania ujęć,

•większy ciężar kamery.

 

 

 

Główne (widoczne) części kamery:

•wizjer optyczny,

•wyświetlacz ciekłokrystaliczny

używany przy filmowaniu i odtwarzaniu,

•panel kontrolny odtwarzania,

•wyłącznik zasilania,

•głośnik odtwarzania,

•obiektyw o zmiennej ogniskowej,

•akumulator,

•lampa kamery,

•mikrofon.

 

 

Ocena jakości kamery

 

                W ciągu ostatnich kilku lat oferta kamer wideo zmieniła się radykalnie, a dynamika tych zmian ma tendencję wzrostową. Wraz ze zmianami, lista pożądanych funkcji z ubiegłego roku stała się standardem w modelach tegorocznych, natomiast pożądane funkcje dostępne w kamerach tegorocznych staną się standardem w przyszłym roku.

Na jakość obrazu zarejestrowanego kamerą mają wpływ dwa główne czynniki:

•rodzaj obiektywu i

•liczba przetworników wykorzystywanych w kamerze do generowania obrazu.

 

 

Ocena jakości kamery – przetwornik CCD

 

Przetwornik CCD wyglądem przypomina układ scalony z tą różnicą, że na górnej części jego obudowy widoczne jest „okienko”. Okienko to podzielone jest na siatkę drobnych elementów światłoczułych, zwanych matrycą. Im jest ich więcej, tym dokładniej odwzorowywany jest obraz.

                Do przechwytywania obrazu wykorzystywane są układy oparte na jednym przetworniku CCD lub na trzech, odczytujących osobno informacje dla kanałów koloru czerwonego, zielonego i niebieskiego, które potem łączone są w obraz.

 

                Kamery jednoprzetwornikowe dają zwykle mniej wyrazisty obraz z drobnymi zakłóceniami kolorystycznymi. W kamerach trójprzetwornikowych, z racji tego, że każdy kolor rejestrowany jest przez oddzielny element światłoczuły, jakość kolorów i ostrość obrazu są tu zdecydowanie lepsze niż w przypadku kamer wykorzystujących tylko jeden przetwornik CCD.

                Tak więc, kamery o trzech przetwornikach CCD są lepsze od kamer jednoprzetwornikowych, ale różnica między nimi nie jest dziś tak ogromna, jak była kiedyś.

 

 

Ocena jakości kamery – obiektyw

 

Kamera filmowa rejestruje obraz skupiając światło padające przez obiektyw na celuloidowej taśmie, a kamera wideo wykorzystuje obiektyw do skupienia światła na przetworniku CCD. Jakość obiektywu może wpłynąć na ostrość i kolorystykę obrazu.

                Większość kamer cyfrowych przeznaczonych do użytku domowego posiada niewymienne obiektywy. Z kolei kamery profesjonalne umożliwiają wykorzystywanie różnych obiektywów – o różnych zakresach zmian ogniskowej, obiektywów szerokokątnych i teleobiektywów.

 

Dobry obiektyw zapewnia możliwość regulacji następujących nastawów:

·  regulację zmian ogniskowej (zoom),

·  ręczne ustawienie ostrości,

·  regulację przesłony.

 

 

Ocena jakości kamery – ergonomia

 

Jeśli różnice pomiędzy jakością obiektywów i przetworników CCD w różnych kamerach są niewielkie, warto przy jej ocenie przeanalizować inne jej cechy:

               

· ergonomia – obecnie na rynku dostępne są kamery DV w różnych rozmiarach – od wielkości walkmana do potężnych skrzyń noszonych na ramieniu:

               

- mniejsze kamery zwykle pozbawione są profesjonalnych złącz, takich jak złącze dźwiękowe XLR; zazwyczaj nie posiadają one również zbyt wielu możliwości ręcznej regulacji parametrów pracy i nie oferują oznaczeń wartości przesłony i ostrości; z drugiej strony, małe kamery są łatwiejsze do transportu i idealne do kręcenia materiałów dokumentalnych;

               

- większe kamery są zwykle wyposażone w 3 przetworniki CCD umożliwiające uzyskanie ujęć o zdecydowanie lepszej jakości, a ich spora masa ułatwia filmowanie stabilnych ujęć;

 

 

Ocena jakości kamery – akumulatory

 

Idealne akumulatory powinny wytrzymać kilka godzin pracy (warto jednak pamiętać, że korzystanie z monitora LCD kamery powoduje, że akumulatory zużywają się znacznie szybciej);

 

 

Ocena jakości kamery – ręczna regulacja

Elementy umożliwiające ręczną regulację ostrości, przesłony, czasu otwarcia migawki, natężenia dźwięku i balansu bieli są niezbędne do komfortowej pracy; głównym problemem automatyki w kamerach jest to, że nie jest ona zbyt „inteligentna”, gdyż zaprojektowano ją do generowania poprawnych ujęć w typowych warunkach oświetleniowych; tańsze kamery zwykle oferują regulację elektroniczną kontrolowaną z poziomu menu lub przycisków na obudowie kamery; kamery profesjonalne posiadają pierścienie służące do ręcznej regulacji, takie jak w profesjonalnych aparatach fotograficznych;

 

Ocena jakości kamery – jakość dźwięku

Mikrofony instalowane w kamerach zwykle oferują bardzo niską jakość, a ich użyteczność dodatkowo zmniejsza fakt, że rejestrują także szumy pochodzące z mechanizmu przesuwu taśmy w kamerze oraz odgłosy przesuwania dłoni po kamerze; wynika z tego, że gniazda mikrofonowe i słuchawkowe w kamerze to jej kolejne niezbędne elementy; gniazdo mikrofonowe, poza możliwością zastąpienia wbudowanego w kamerę mikrofonu, umożliwia również rejestrację dźwięku zmiksowanego z kilku źródeł; znacznie lepsze jest gniazdo XLR niż minijack;

 

Ocena jakości kamery – stabilizacja obrazu

Z uwagi na fakt, że utrzymanie nieruchomo kamery ważącej nawet klika kilogramów nie należy do łatwych zadań, wiele kamer posiada układy stabilizacji obrazu, które umożliwiają skompensowanie drgań kamery;

istnieją dwa typy układów stabilizacji obrazu:

 

- elektroniczne

               

- optyczne.

 

Ocena jakości kamery – elektroniczna stabilizacja obrazu

(czasem zwana cyfrową) wymaga przetwornika CCD o rozmiarze większym niż obszar rejestracji obrazu; układ stabilizacji wykrywa ruch kamery, analizuje go i cyfrowo przesuwa obraz na przetworniku CCD, aby skompensować drgania; z racji większej powierzchni przetwornika CCD na krawędziach obrazu jest „zapas”, który umożliwia realizację takiej operacji; z racji ciągłego poruszania obrazem, elektroniczna stabilizacja może wprowadzić do niego drobne rozmycia;

 

Ocena jakości kamery – optyczna stabilizacja obrazu

Działa na optyce kamery, kompensując drgania; kamery posiadające taki układ wyposażone są w pryzmaty zbudowane z dwóch szklanych płytek, pomiędzy którymi znajduje się przezroczysty płyn załamujący światło; specjalne serwomechanizmy umieszczone przy płytkach umożliwiają zmianę ich wzajemnego ułożenia, co z kolei powoduje, że przechodzące przez taki pryzmat światło jest kierowane na właściwy obszar przetwornika CCD; układ ten nie zniekształca obrazu, jednakże jest bardzo drogi;

 

Ocena jakości kamery – wizjer

Większość kamer wideo posiada dwa wizjery

         optyczny i uchylny monitor LCD;

monitor ten można ustawić w dowolnym położeniu, przez co zyskuje się znacznie większą swobodę manewru przy filmowaniu; jednak podstawowymi wadami wizjera LCD są duże zapotrzebowanie nie prąd i to, że w jasnym świetle trudno dostrzec na nim obraz; ponadto wyświetlacz LCD zwiększa masę kamery;

 

Ocena jakości kamery – efekty specjalne

Wiele kamer wideo, szczególnie te przeznaczone do użytku domowego, oferuje możliwość tworzenia efektów specjalnych (np. zabarwienie obrazu, ograniczenie liczby kolorów, stroboskop) i przejść; jednakże zawsze lepiej jest nakręcić zwykłe ujęcie, a efekty specjalne tworzyć w komputerze, gdyż takie rozwiązanie zapewnia większe możliwości (np. skasowanie niechcianego efektu);

 

Ocena jakości kamery – akcesoria

Do niemal każdej kamery DV można znaleźć wiele różnorakich akcesoriów:

- statywy – używa się wtedy, gdy chce się uzyskać stabilny obraz lub płynny ruch kamery przy wykonywaniu panoram z jednoczesnym powiększaniem obrazu; idealny statyw powinien posiadać głowicę osadzoną na łożyskach olejowych, które umożliwiają płynne poruszanie kamerą, oraz wygodne uchwyty umożliwiające blokowanie i odblokowywanie osi ruchu statywu,

- wózki – to specjalne pojazdy poruszające się po ułożonych na planie szynach, do których mocowana jest kamera,

               

- mikrofony – profesjonalne urządzenia, które zastępują kiepskie mikrofony wbudowane w kamerę,

               

- filtry – są wykorzystywane do zmiany koloru lub własności optycznych światła wpadającego do kamery,

               

- torby do transportu kamery oraz wodoodporne obudowy do kręcenia zdjęć podwodnych itd.

 

 

Komputer służący do montażu materiału wideo

                Każda klatka materiału wideo jest digitalizowana w podobny sposób jak w skanerze. Jednak, ponieważ klatka wideo ma rozmiar 720x576 pikseli (co daje w sumie 414 720 pikseli), a każda sekunda materiału wideo jest zapisywana w 25 klatkach, do przechowywania cyfrowego wideo potrzebny jest szybki komputer i duże ilości pamięci zewnętrznej.

                Większość sprzedawanych obecnie komputerów dobrze radzi sobie z montażem materiału wideo. Do bezproblemowej edycji wideo w zupełności wystarczy komputer o poniższej specyfikacji:

                - procesor z zegarem 800 MHz lub szybszym,

                - 256 MB pamięci RAM (jeśli zamierzamy montować materiały wideo dłuższe niż 10-15 minut powinniśmy posiadać 512 MB RAM),

- minimalnie 17-to calowy monitor kineskopowy lub 15-to calowy panel LCD (najlepszym rozwiązaniem jest posiadanie dwóch monitorów, gdyż można wtedy oglądać materiał wideo na jednym, a panel kontrolny na drugim),

                - karta graficzna z przynajmniej 64 MB pamięci,

                - dysk twardy o pojemności przynajmniej 80 GB (oraz w zależności od potrzeb dodatkowy dysk zewnętrzny łączony z komputerem za pomocą portu USB 2.0 lub FireWire),

- nagrywarka płyt CD lub DVD jest niezbędna jeśli chcemy gromadzić i archiwizować materiały wideo na tych nośnikach (warto pamiętać, że filmy nagrane w formacie DVD-R i DVD+R będą mogły być odtwarzane w większości stacjonarnych odtwarzaczy DVD, filmy nagrane w formacie DVD-RW oraz DVD+RW tylko w niektórych odtwarzaczach, natomiast jeśli nagramy film w formacie DVD-RAM, to odczytamy go tylko przy pomocy komputera),

                - może być także potrzebna karta wideo.

 

Karta wideo

Karty wideo, czyli urządzenia pozwalające na import danych wideo do komputera dzielimy na dwa rodzaje:

                - analogowe karty wideo,

 

 

 

               

- cyfrowe karty wideo.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Analogowa karta wideo

                Jeśli chcemy montować materiał wideo pochodzący z jakiegokolwiek analogowego źródła, np. magnetowidu lub analogowej kamery wideo, potrzebna jest analogowa karta wideo, która przechwytuje analogowy obraz wideo i przekształca go na postać cyfrową. Tutaj zatem digitalizacja nie dokonuje się w kamerze, lecz proces ten dokonuje się w komputerze. Do tego celu potrzebny jest właśnie sprzęt konwertujący sygnał analogowy na cyfrowy, możliwy do zapisania na dysku twardym. Takie urządzenia, nazywane są „kartami przechwytującymi” lub „kartami wideo”. Zwykle umożliwiają one także wstępną kompresję materiału przy zapisie i dekompresję przy jego odtwarzaniu.

                Warto wybrać kartę przechwytującą wyposażoną w gniazdo S-Video, ponieważ dzięki niej jakość obrazu będzie znacznie wyższa niż w przypadku wykorzystania wejścia typu chinch.

 

Cyfrowa karta wideo

                Jeśli materiał wideo pochodzi z cyfrowej kamery wideo, istnieje możliwość importu danych z wykorzystaniem portu FireWire (montowanego bezpośrednio na płycie głównej lub będącego kartą rozszerzeń – cyfrową kartą wideo). Rolę cyfrowej karty wideo może także pełnić port USB 2.0, przez który także można importować dane wideo z niektórych typów kamer cyfrowych.

                W tym wypadku cyfrowa kamera wideo digitalizuje obraz przed zapisem na taśmę. Jeśli więc używamy złącza FireWire (inne nazwy to - ilink, IEEE-1394) lub USB 2.0 do przenoszenia materiału z kamery cyfrowej do komputera, nie trzeba przeprowadzać procesu digitalizacji, ponieważ kamera już to zrobiła. Zamiast tego po prostu przenosimy do komputera ciągi wartości numerycznych reprezentujące sygnał wideo.

 

Programy służące do cyfrowej obróbki materiału wideo

Program do montażu materiałów wideo umożliwia wykonywanie m.in. następujących czynności:

                - wstawianie komentarza do sekwencji wideo,

                - dodawanie ścieżki dźwiękowej,

                - dodawanie muzyki i efektów dźwiękowych w ramach całego filmu,

- tworzenie przejść między scenami, takich jak: rozjaśnianie, odkrywanie, wirowanie, obrót oraz przejście jednej sceny w drugą w bardziej wymyślny sposób niż przełączenie z końca jednej sceny do początku następnej,

                - umieszczenie w filmie napisów początkowych i końcowych,

                - zwalnianie odtwarzania wybranych części filmu i przyspieszanie innych,

                - tworzenie efektów specjalnych w ramach całego filmu,

                - przechwytywanie nieruchomych obrazów z dowolnych klatek i wprowadzanie ich do filmu.

               

Wszystkie prezentowanie niżej programy służące do obróbki materiału wideo oferują w/w funkcje.

               

Windows Movie Maker jest standardowo dodawany do systemu Windows Me i XP i dla posiadaczy tych systemów jest programem umożliwiającym darmową obróbkę materiału wideo. Program ten potrafi importować różnego rodzaju pliki multimedialne:

 

Typ plików multimedialnych:

Obsługiwane formaty:

Pliki video

asf, avi, wmv, mpeg, mpg, mlv, mp2, mpa, mpe

 

Pliki audio

wav, snd, au, aif, aifc, wma, mp3

 

Pliki obrazów nieruchomych

bmp, jpg, jpeg, jpe, jfif, gif, dib

 

                Windows Movie Maker zapisuje przygotowany klip do formatu avi, wma, asf lub wmv.

                Choć program ten nie posiada dużych możliwości edycyjnych, to oferuje możliwość nagrania narracji. Poza importowaniem, edycją i montowaniem, program potrafi również nagrywać obraz i dźwięk. Dodatkowo, dzięki obsłudze plików graficznych, możemy dodać np. logo, które zostało zrobione w jakimś programie graficznym.

 

 

 

Program ten nadaje się dla początkujących użytkowników.

                Ulead Video Studio 7 umożliwia pobranie materiału audio i wideo zarówno z tunera telewizyjnego, jak i karty graficznej z modułem ViVo oraz różnego rodzaju kamer cyfrowych. Dodatkowo program umożliwia podstawowy montaż poszczególnych scen. Za jego pomocą można m.in. generować przejścia pomiędzy poszczególnymi scenami, przycinać film, czy też dodawać tekst lub inne efekty specjalne, a także obrabiać podkład dźwiękowy oraz dodawać komentarz lektora.

Ulead DVD Movie Factory 2.5 jest narzędziem, za pomocą którego można w wygodny i prosty sposób podzielić na sceny zmontowany film, a także można przygotować menu lub dodać do swojej płyty zdjęcia lub podkład muzyczny. Następnie tak przygotowany materiał można nagrać na płytę CD (VCD, SVCD) lub DVD, którą można później oglądać na komputerze lub w stacjonarnym odtwarzaczu DVD.

Adobe Premiere Elements to aplikacja do obróbki wideo do celów domowych. Program ten zoptymalizowano dla Windows XP. W ramach programu w łatwy sposób można manipulować obrazem, dźwiękiem, animacjami i grafiką, aby stworzyć wysokiej jakości film. Program umożliwia także edycję filmu w czasie rzeczywistym oraz bezpośrednie zapisanie przygotowanego materiału na CD lub DVD.

                Adobe Premiere jest profesjonalnym narzędziem przeznaczonym do obróbki i produkcji materiałów wideo. Najnowsza wersja została wzbogacona o obsługę technologii DV oraz nowe narzędzia. Program umożliwia także bezpośrednie zapisanie przygotowanego materiału w popularnych internetowych formatach wideo przetwarzanych strumieniowo. Funkcje obsługi dużej ilości różnych urządzeń Digital Video, dobra integracja z innymi aplikacjami Adobe (After Effects, Photoshop, Illustrator, GoLive), profesjonalne narzędzia do edycji oraz dobry interfejs użytkownika sprawiają, że Adobe Premiere jest jednym z najlepszych i najpopularniejszych narzędzi do cyfrowej obróbki wideo.

                Adobe Premiere Pro 1.5 to wprowadzony na rynek 19 kwietnia 2004 r. nowy, znacznie zmodernizowany program do edycji wideo. Jest to jeden z podstawowych elementów pakietu Adobe Video Collection 2.5, który zawiera ponadto nowe wersje modułów Adobe After Effects, Adobe Audition oraz Adobe Encore DVD. Łącznie moduły te tworzą kompletną platformę do cyfrowej edycji dźwięku i wideo, ruchomej grafiki, efektów specjalnych oraz filmów DVD w procesie postprodukcji.

                Adobe Encore DVD 1.5 to profesjonalna aplikacja służąca do tworzenia publikacji DVD. Program ten umożliwia tworzenie zaawansowanych, wielojęzycznych publikacji DVD z interaktywnymi funkcjami oraz szeregiem ścieżek dźwiękowych i napisów. Program łączy w sobie zintegrowane środowisko tworzenia, elastyczny i kreatywny interfejs oraz integrację z oprogramowaniem Adobe Photoshop. W programie można stworzyć łącznie do 8 ścieżek dźwiękowych i 32 wersje napisów. Przed nagraniem płyty DVD można obejrzeć projekt w oknie podglądu obrazu.

                Adobe Encore DVD 1.5 jest zgodny ze wszystkimi znanymi formatami DVD (DVD-R/RW, DVD+R/RW i DVD-RAM). Program zapewnia międzykodowanie obrazu i dźwięku, co umożliwia automatyczną konwersję źródeł obrazu i dźwięku do formatu MPEG-2, a plików dźwiękowych do systemu Dolby Digital, oraz optymalizację kompresji plików.

 

Typy plików cyfrowego wideo

                Gdy przeniesiemy cyfrowy materiał wideo do komputera, jest on zapisywany w pliku na dysku twardym. Wideo przenoszone do komputera przez łącze FireWire jest często zapisywane w postaci pliku QuickTime (w MacOS) lub DV (w Windows). Materiał analogowy jest zwykle zapisywany w formacie QuickTime (MacOS) lub AVI (Windows).

                Pliki cyfrowego wideo mogą być również kompresowane za pomocą różnych kodeków. Plik QuickTime przechwycony przez łącze FireWire na komputerze Macintosh zostanie skompresowany kodekiem Apple DV. Karty przechwytujące materiał analogowy zwykle wykorzystują kodeki MPEG-1, MPEG-2 lub M-JPEG.

 

Formaty kompresji

 

 

Można konwertować materiał wideo pomiędzy różnymi formatami kompresji, ale wiąże się to zwykle z obniżeniem jego jakości.

AVI (Audio video interleaved) – to plik multimedialny łączący dane wideo oraz audio. Format wprowadzony przez Microsoft, by umożliwić rejestrację, edycję oraz czytanie plików wideo w systemie Windows przy pomocy programu Media Player.

M-JPEG (ang. Motion-JPEG) to kodek umożliwiający osiągnięcie różnych poziomów jakości obrazu – od bardzo niskiej do niemal doskonałej. Większość profesjonalnych analogowych kart wideo wykorzystuje ten kodek.

               

MPEG-1 – algorytm kompresji materiału wideo stosunkowo słabo obniżający jakość sygnału. Wykorzystywany jest do kopresji materiału przeznaczonego do dystrybucji na płytach VideoCD (VCD).

MPEG-2 to kodek pierwotnie opracowany dla potrzeb kompresowania obrazu o jakości emisyjnej. Analogowe karty wideo często wykorzystują ten kodek do kompresji i dekompresji materiału analogowego. Kodek ten jest jednak głównie wykorzystywany w filmach DVD i SVCD.

MPEG-4 – kodek pierwszy raz wykorzystany w plikach asf, czyli w nowym formacie promowanym przez Microsoft. Jednak po pewnym czasie zastosowane w tym kodeku zabezpiecznie AVI lock zdjęła grupa programistów. Umożliwiła w ten sposób wykorzystanie tego kodeka do kompresji plików w formacie AVI, który nie posiada wbudowanych zabezpieczeń antypirackich.

DivX;) – pierwsza wersja DivX-a podzielona została na dwie wersje: Fast-Motion oraz Low-Motion. Z zasady Fast-Motion miał być zastosowany w filmach z dużą ilością ruchu, choć praktycznie nie był taki dobry, jak planowano. Low-Motion dawał lepszej jakości pliki, ale rozmiar tych plików był niestety większy. Sam kodek był po prostu ulepszoną wersją kodeka Microsoft MPEG-4 i niewątpliwie przyczynił się do rozwoju piractwa komputerowego.

DivX 4 i 5 – pierwszą legalną wersją DivX-a, napisaną od podstaw bez naruszania patentu Microsoft MPEG-4, była wersja 4. Dawała ona większą liczbę zmiany ustawień kodeka, umożliwiając m.in. kompresję dwuprzebiegową (czyli poprzedzenie właściwej kompresji analizami, dzięki którym uzyskuje się lepszą jakość obrazu).

Powstanie piątej wersji DivX-a stało się przełomowym momentem, nie tylko z powodu polepszenia jakości kompresji, ale dlatego, że kodek stał się produktem komercyjnym. Jeżeli chcemy używać kodeka z rozszerzoną liczbą opcji, niestety musimy zapłacić lub używać wersji szpiegującej nas (adware).

XviD – jest to odpowiedź części programistów na komercjalizację DivX-a. Można łatwo zauważyć, że XviD to odwrócona nazwa DivX. Jednak nie stanowi on całkowitego przeciwieństwa. XviD to zestaw darmowych kodeków pisanych i doskonalonych przez różnych programistów. W sieci dostępnych jest kilka różnych kompilacji (wersji) tego programu, które nieznacznie różnią się od siebie i mogą zawierać w sobie kilka odmiennych funkcji. Obecnie jest on jednym z najpopularniejszych programów do kompresji obrazu.

 

Najważniejsze parametry i różnice pomiędzy formatami plików wideo dla płyty VCD, SVCD oraz DVD

 

 

VCD

SVCD

DVD

Rozdzielczość

352x288

 

480x576

 

720x576

 

Rodzaj kompresji

MPEG-1

 

MPEG-2

 

MPEG-2

 

 

Video bitrate kb/s

1150 kb/s

 

1500-2500 kb/s

 

3000-8000 kb/s

 

Rodzaj kompresji audio

MPEG-1

 

MPEG-1

 

MPEG-1,

MPEG-2, AC3, DTS, PCM

 

Audio bitrate kb/s

224 kb/s

 

128-384 kb/s

 

192-448 kb/s

 

Rozmiar minuty filmu

10 MB/min

 

10-20 MB/min

 

30-70 MB/min

 

 

 

Projektory multimedialne

                Projektory cyfrowe (zwane często projektorami multimedialnymi) są to narzędzia służące do prowadzenia profesjonalnych prezentacji oraz do użytku domowego, np. jako składnik kina domowego.

                We współczesnych projektorach multimedialnych najczęściej znakomita jakość obrazu przy niewielkich wymiarach, cicha praca oraz szereg zaawansowanych rozwiązań technologicznych, pozwalają na pracę w dowolnych warunkach i stosowanie ich zarówno w biurze, w domu, a nawet podczas podróży.

 

Dobry projektor multimedialny musi posiadać odpowiednie parametry:

•rozdzielczość – 800x600 pikseli lub większą,

•jasność – 1500 ANSI lum. lub większą,

•ilość wyświetlanych kolorów – 16,7 mln kolorów lub więcej,

•czas pracy lampy – 3000 godzin lub więcej.

 

 

Prezentacje multimedialne

1.Audiowizualne systemy prezentacji

2.Zasady tworzenia poprawnej prezentacji

3.Programy służące do tworzenia prezentacji multimedialnych

 

Audiowizualne systemy prezentacji

                Audiowizualne systemy prezentacji są istotnym elementem wyposażenia multimedialnego, zwłaszcza wyposażenia audiowizualnego sal dydaktycznych (wykładowych, ćwiczeniowych, seminaryjnych), pracowni i innych pomieszczeń, w których prowadzi się zajęcia dydaktyczne.

                Wysoką efektywność kształcenia i wszelkiego rodzaju prezentacji dowolnych treści zapewniają m.in. skuteczne metody komunikacji – tj. prezentacje multimedialne (będące formą komunikacji multimedialnej).

                Na audiowizualny system prezentacji składają się podstawowe zestawy urządzeń multimedialnych współpracujących z sobą i stanowiących funkcjonalną całość. Ich podstawowym zadaniem jest zapewnienie możliwości przesyłania i prezentowania obrazu (filmów, animacji i zdjęć) i dźwięku.

                W skład audiowizualnego systemu wchodzą:

 

•system projekcyjny (stacjonarny bądź przenośny),

•system urządzeń źródłowych,

•system nagłośnienia.

 

W skład audiowizualnego systemu wchodzą:

 

system projekcyjny, na który składa się projektor multimedialny i ekran; pozwala on na wyświetlanie na dużym ekranie obrazu pochodzącego ze wszystkich urządzeń źródłowych sygnału wizyjnego (magnetowidu, DVD, komputera itp.);

                ze względu na przeznaczenie możemy systemy te podzielić na:

 

- stacjonarne,

- przenośnie.

                - stacjonarne (tutaj urządzenia projekcyjne zainstalowane są na stałe w danym obiekcie; najczęściej są one zintegrowane z innymi instalacjami, nagłośnieniem, zestawem urządzeń źródłowych, a także zintegrowanym sterowaniem wszystkimi urządzeniami zainstalowanymi na stałe),

                - przenośne (urządzenia do projekcji przenośnej są zestawami funkcjonalnymi w odpowiednich opakowaniach do transportu i zwykle nie zapewniają tak wysokiej jakości projekcji, jak w przypadku projekcji stacjonarnej),

system urządzeń źródłowych, zapewniający korzystanie z materiałów przygotowanych w dowolnej formie

 

- prezentacji komputerowych (np. przygotowanych przy pomocy programu PowerPoint odtwarzanych z laptopa),

 

- przekazu obrazu i dźwięku w czasie rzeczywistym (np. programu telewizyjnego),

               

- zapisu na taśmie magnetycznej i płytach DVD danych wideo i audio (magnetowid i odtwarzacz DVD),

               

- tekstów i grafiki (na kartach papieru, folii, fotografii, slajdów czy przedmiotów trójwymiarowych) przy pomocy odpowiednich kamer czy wizualizerów,

system nagłośnienia, dostosowany do kształtu pomieszczeń, powinien zapewniać wysokiej klasy dźwięk, słyszalny jednakowo w każdym miejscu pomieszczenia; jego elementami są: mikser, wzmacniacz akustyczny, zestaw kolumn nagłaśniających, które mogą być wolnostojące, zawieszone na ścianach lub głośniki montowane w suficie.

 

                Tego typu system, jeśli odpowiada najnowszym wymaganiom i osiągnięciom technicznym  technologii informacyjnych (mediom), zapewnia wysoką efektywność kształcenia i prowadzonych przedsięwzięć naukowych.

               

Aby było to możliwe, potrzebna jest jednak wiedza o tym:

               

- jakie są zasady tworzenia poprawnej prezentacji,

- przy pomocy jakiego programu można stworzyć taką prezentację multimedialną.

Ogóle zasady tworzenia prezentacji

                Przed przystąpieniem do komponowania własnej prezentacji multimedialnej warto zapoznać się z kilkoma ważnymi faktami dotyczącymi przyswajania wiedzy przez potencjalnych odbiorców tego przekazu, aby zminimalizować błędy przy tworzeniu swojego multimedialnego wystąpienia.

 

Ogóle zasady tworzenia prezentacji – efektywność prezentacji

Widać, że czym dłuższa prezentacja, tym słuchacze mniej zapamiętują.

 

 

 

 

 

 

 

 

 

 

 

 

 


Ogóle zasady tworzenia prezentacji – krzywa uwagi

 

Widać, że czym dłuższa prezentacja, tym mniejsza jest liczba zainteresowanych słuchaczy.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Ogóle zasady tworzenia prezentacji – przyswajanie wiedzy

 

 

Przeciętnie człowiek zapamiętuje:

                - 10 % z tego, co czyta,

                - 20% z tego, co słyszy,

                - 30 % z tego, co widzi,

                - 70% z tego, co widzi i słyszy,

                - 80% z tego, co sam mówi,

               

- 90% z tego, co sam robi.

 

 

Ogóle zasady tworzenia prezentacji – cechy dobrej prezentacji

 

 

Prezentacja jest dobra, jeśli:

 

-          posiada temat, który da się powiedzieć w jednym zdaniu,

-          posiada wstęp, który zawiera jednozdaniowe streszczenie prezentacji,

-          posiada treść skomponowaną z krótkich zdań, które zawierają większość wyrazów znanych osobom, które są adresatami prezentacji.

 

Szczegółowe zasady tworzenia prezentacji

 

 

                Tworzenie wystąpienia nie sprowadza się wyłącznie do utworzenia kilku czy kilkunastu slajdów. Jest to sztuka bardziej skomplikowana, gdyż wychodzi znacznie poza obsługę programu do tworzenia grafiki prezentacyjnej (takiego jak np. PowerPoint).

 

Wystąpienie = tekst mówiony + prezentacja slajdów.

 

                Prezentacja slajdów ma prowadzić prelegenta w czasie wystąpienia, a słuchaczowi ma ułatwić przyjmowanie nowych treści.

                Ważną sprawą jest także dostrzeżenie, że nasz mózg ma dwie półkule i w czasie prezentacji obie mają coś otrzymać:

         i ta logiczna, intelektualna,

         i ta druga

intuicyjna, operująca obrazami i wyobraźnią.

               

Dopiero wtedy można liczyć na sukces!

 

Szczegółowe zasady tworzenia prezentacji - schemat

Najprostszy schemat tworzenia prezentacji:

- napisanie na papierze tego, co chce się powiedzieć,

-          następnie podkreślenie ważnych haseł i zwrotów,

-          przeniesienie ich do programu do tworzenia prezentacji,

-           

wyedytowanie prezentacji do końca.

 

Szczególnym przypadkiem tego schematu jest przygotowanie prezentacji na podstawie napisanego wcześniej tekstu (artykułu)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Szczegółowe zasady tworzenia prezentacji – pomocne pytania

Przed przystąpieniem do tworzenia prezentacji warto zastanowić się nad poniższymi zagadnieniami:

                a) planem prezentacji,

                b) w jaki sposób moja prezentacja ma stać się medium komunikacji,

                c) czytelnością prezentacji,

                d) kompozycją, dobrym układem elementów,

                e) atrakcyjnością pokazu,

                f) powiązaniem wszystkich elementów w spójną i logiczną całość.

 

W przemyśleniu powyższych zagadnień mogą pomóc szczegółowe pytania:

a) odnośnie planu prezentacji; czy moja prezentacja posiada:

                - stronę tytułową mówiącą o temacie oraz tym kto wygłasza wystąpienie?

                - streszczenie (spis treści), aby na wstępie zapoznać słuchaczy z treścią wystąpienia?

                - główne tezy, aby wskazać o co prelegentowi chodzi w wystąpieniu?

                - przykłady, np. ilustracje?

                - podsumowanie, aby zebrać wyniki i powiedzieć co z tego wynika?

                - podziękowanie za uwagę?

b) odnośnie tego, czy moja prezentacja jest medium komunikacji, warto zapytać, czy prezentacja:

                - jest czytelnie i przejrzyście zaplanowana?

                - prowadzi prelegenta po wystąpieniu?

- jest dostosowana do grupy odbiorców, do której skierowane jest wystąpienie?

                - stanowi wsparcie dla słuchającego w przyswajaniu nowych treści?

c) odnośnie tego, czy moja prezentacja jest czytelna, czy tekst w niej jest dostrzegalny, warto zapytać, czy:

- nie powielam sposobów komunikowania przydatnych na papierze (to co dobre na papierze, niekoniecznie dobre jest na slajdzie)?

                - tło jest odpowiednio kontrastowe, a jednocześnie slajd sprawia wrażenie żywego?

- stosuję proste wyrażenia, starając się maksymalnie upraszczać tekst (o ile jest to możliwe)?

                - stosuję odpowiednio duże litery?

                - nie używam udziwnionych czcionek?

                - używam czcionki bezszeryfowe (np. Arial)?

- kształty, barwy, proporcje, symbole występujące w pokazie slajdów będą przez widzów prawidłowo kojarzone z treścią pokazu?

d) odnośnie tego, czy moje slajdy mają dobrą kompozycję, czy mają dobry układ elementów, warto zapytać, czy:

                - stosuję tekst w formie listy wypunktowanej lub numerowanej?

                - tło i ilustracje rozpraszają lub przytłaczają podstawowe treści?

                - moje slajdy są czytelne?

                - nie przekraczam liczby maksimum kilku dobranych kolorów?

                - używam barw, aby akcentować ważne elementy?

e) odnośnie atrakcyjności pokazu, warto zapytać, czy:

               

- moje slajdy są wystarczająco atrakcyjne dla widza?

                - na moich slajdach jest wystarczająco dużo, ale nie za dużo, animacji?

                - mam odpowiednią kontrolę nad animacjami?

                - przejścia slajdów w mojej prezentacji są odpowiednio zaprogramowane?

                - mam kontrolę nad przejściem slajdów?

f) odnośnie układu slajdów i kompozycji formalnej – tj. powiązania wszystkich elementów w spójną i logiczną całość, warto zapytać, czy:

               

- slajdy skomponowane są konsekwentnie?

               

-    maksymalnie upraszczam kompozycję nie stosując zbędnych ozdobników?

- używam figur zwartych, pozbawionych zbędnych szczegółów, które dezorganizowałyby percepcję widza?

- czy umieszczam ważne treści w miejscach slajdu, w których koncentracja widza jest największa?

 

Szczegółowe zasady tworzenia prezentacji – uwagi praktyczne

Badania wskazują, że teksty pisane minuskułą (małymi literami) są czytane szybciej i łatwiej, niż teksty pisane majuskułą (DUŻYMI LITERAMI), choć oczywiście z większej odległości majuskuła widoczna jest lepiej.

               

Kolor tekstu nie pozostaje obojętny dla czytelności pisma; do trzech najbardziej czytelnych kompozycji zalicza się:

               

                - niebieski druk na szarym tle,

                              

- czarny druk na szarym tle,

                              

- czarny tekst na żółtym tle,

w grupie najmniej czytelnych znalazły się:

                              

- czarny druk na niebieskim tle,

                              

- żółty druk na białym tle,

                              

- niebieski druk na czarnym tle,

               

generalnie jest tak, że stopień czytelności uzależniony jest od kontrastu luminancji pomiędzy drukiem i tłem – litery powinny być ciemne, tło zaś jasne.

 

Barwy są elementem, który pamięta się lepiej niż kształty; dostrzegalnych jest wiele aspektów stosowania koloru – kolor można wykorzystać np. jako element kodu: w prezentacjach warto stosować kolor czerwony do ostrzegania, a kolor zielony do przyzwalania.

 

Duże znaczenie w prezentacjach mają ilustracje; porównując zdolność percepcji informacji, wiemy, że człowiek zapamiętuje trzy razy więcej informacji przez oglądanie, niż przez czytanie; jeśli planowane w prezentacji ilustracje podporządkowane są strukturze tekstu, należy raczej stosować ilustracje schematyczne; wśród ilustracji nie podporządkowanych strukturze tekstu stosować należy obrazy realistyczne (zdjęcia), przy czym odpowiedniki są bardziej efektywne niż uzupełnienia; zapamiętywanie obrazów jako całości wzrasta, im prostsza i przejrzystsza jest ich budowa.

 

                Dzięki ilustracjom odbiór przekazywanych wiadomości jest pełniejszy i bogatszy, a ponadto obraz ukierunkowuje uwagę na niektóre informacje, wpływając w ten sposób na wybiórczość postrzegania i pamięć; obrazy w prezentacji multimedialnej mogą pełnić następujące funkcje:

                - dekoracyjną (zwiększają atrakcyjność tekstu),

               

- motywacyjną (zwiększają zainteresowanie tekstem),

               

- powtórzeniową (stanowią dodatkową ekspozycję treści tekstu),

               

- reprezentującą (informacje tekstowe stają się bardziej konkretne),

               

- organizującą (informacje tekstowe stają się bardziej zintegrowane),

               

- interpretującą (informacje tekstowe stają się bardziej zrozumiałe),

               

- transformującą (informacje tekstowe stają się łatwiejsze do zapamiętania);

               

Obrazy i słowa są alternatywnymi kodami, przy pomocy których informacje są przez ludzi przekazywane, odbierane, przetwarzane i rejestrowane w pamięci; w pewnym zakresie obrazy mogą być zastąpione słowami, a słowa – obrazami; obydwa kody wydają się niezbędne do skutecznego przekazywania i odbioru wiadomości, jak również sprawnego operowania informacjami.

               

Film to nie tylko źródło informacji, ale także środek kształtujący wyobraźnię, zainteresowania i przekonania; może on pełnić między innymi następujące funkcje:

               

- ilustratywną (wzbogaca poznawane treści, uzupełnia obserwacje),

               

- źródłową (stanowi źródło informacji podanych w atrakcyjnej i efektywnej formie),

               

- weryfikacyjną (ułatwia sprawdzanie przewidywań, hipotez, wniosków, ułatwia rozwiązywanie problemów),

                - praktyczną (ukazuje zastosowanie teorii i twierdzeń w praktyce),

               

- utrwalającą (umożliwia uogólnienie wiedzy oraz jej zapamiętywanie),

               

- sprawnościową (ułatwia opanowywanie umiejętności i nawyków, także manualnych),

               

- kontrolną (umożliwia sprawdzenie stopnia opanowania wiadomości i umiejętności);

               

zaletą filmu, który może stanowić część prezentacji multimedialnej, jest:         

- rozbudzenie zaangażowania, zaciekawienie i zainteresowanie materiałem zawartym w prezentacji,

- wywoływanie określonych przeżyć intelektualnych i emocjonalno-ekspresyjnych,

- ułatwianie percepcji wiedzy, dzięki swej atrakcyjności,

- nie ograniczanie poznawania do miejsca i czasu,

- utrwalenie w pamięci za jego pośrednictwem informacji na dłużej niż informacji podanych tylko werbalnie,

- możliwość pokazania tego, co może być niedostępne bezpośredniej obserwacji, gdyż w swej naturalnej postaci jest zbyt małe, bardzo duże lub też odległe w czasie i przestrzeni,

               

- możliwość przyspieszenia przebiegu wydarzeń, które normalnie biegną zbyt wolno lub możliwość zwolnienia tego, co zachodzi normalnie bardzo szybko.

 

Szczegółowe zasady tworzenia prezentacji – uwagi praktyczne (podsumowanie)

                Przygotowując prezentację i poszczególne jej slajdy warto pamiętać o następujących zasadach:

               

-          każda prezentacja musi mieć swój temat, który należy przedstawić na początku jako slajd tytułowy,

-          warto zastanowić się, w jakim celu przygotowywana jest dana prezentacja, co się chce przez nią osiągnąć, co się chce przekazać i komu (należy dostosować treść i środki wyrazu do wieku i poziomu odbiorców),

 

-          każda plansza powinna mieć tytuł,

-          aby slajdy były czytelne, nie powinno być więcej niż 5-6 linijek tekstu na jednym slajdzie,

-          tekst powinien składać się z haseł, a nie z rozbudowanych akapitów,

-          tekst i pozostałe elementy powinny być czytelne z większej odległości

-          należy stosować czytelną czcionkę, bez zbędnych ozdobników i udziwnień

-            

,

 

 

 

-          elementy graficzne muszą być czytelne, a ich zadaniem powinno być wspomaganie tekstu,

-          kolory i czcionki należy stosować konsekwentnie; kolorystyka i tło mają wspomagać prezentację, a nie dominować,

 

 

-      należy wykorzystywać stopniowanie, tzn. wyświetlać kolejne elementy slajdu potrzebne do omawianego fragmentu prezentacji,

               

-          należy umieszczać tylko takie animacje, które służą objaśnieniu jakiegoś zagadnienia (przesadne używanie zbędnych animacji dezorientuje słuchaczy),

-          warto pamiętać, że odbiorca zwraca największą uwagę na górną część slajdu, a szczególnie na lewy górny róg i tam należy umieszczać najważniejsze informacje,

 

-      na zakończenie należy przedstawić podsumowanie (np. jakiś cytat, sentencję czy hasło),

               

-      warto także pamiętać, że każda prezentacja ma swojego autora; należy tę informację podać na początku i ewentualnie na końcu prezentacji,

 

-      należy także podać wszystkie źródła wykorzystane w prezentacji (autorów i tytuły cytowanych utworów, skąd pochodzą wykorzystane materiały ilustracyjne itp.).

 

Programy służące do tworzenia prezentacji multimedialnych

                Najpopularniejszym programem, który służy do tworzenia prezentacji multimedialnych jest PowerPoint. Program ten umożliwia tworzenie i organizowanie pokazów slajdów, przezroczy, notatek prowadzącego, materiałów rozdawanych uczestnikom pokazów oraz konspektów. Wszystko to może się mieścić w jednym pliku prezentacji. Można używać tego programu, aby projektować, tworzyć, drukować i przekazywać innym profesjonalne prezentacje.

 

Najnowsze funkcje programu PowerPoint 2003

                Program PowerPoint 2003 wyposażony jest w nowe narzędzia, które ułatwiają tworzenie i przedstawianie prezentacji. Program ten umożliwia m.in.:

- tworzenie pakietów na płytę CD, tzn. możliwość zapisania na CD wszystkich plików wymaganych do odtworzenia prezentacji; gotowe płyty z prezentacjami można udostępniać odbiorcom; po włożeniu dysku CD do napędu, prezentacja automatycznie otwiera się w trybie pokazu slajdów;

- odtwarzanie prezentacji na komputerze nie posiadającym kompletnego programu PowerPoint; tworząc płytę z prezentacją, można do niej dołączyć przeglądarkę;

       

- tworzenie atrakcyjnych pokazów slajdów wzbogaconych o grafikę, animacje i wszelkie pliki multimedialne,

   

- dostęp do galerii Microsoft Office Online Clip Art and Media w witrynie Office Online, która zawiera tysiące elementów multimedialnych, które można dodać do swojej prezentacji, tj.: obrazy, dźwięki, zdjęcia i animacje (korzystanie z tej opcji możliwe jest, gdy posiada się połączenie z Internetem);

- urozmaicenie prezentacji za pomocą wysokiej jakości niestandardowych animacji; można tworzyć takie animowane efekty, jak np. jednoczesne poruszanie się wielu obiektów; można także ustalić kolejność wszystkich efektów animacji, w tym wejść;

- użycie funkcji autokorekty, która automatycznie poprawia najczęstsze błędy pisowni i może zastępować skróty pełnym tekstem;

- to, że jeśli wpiszemy nazwę, adres albo inne słowo kluczowe powoduje to pojawienie się ikony tagu inteligentnego, który – po wyszukaniu informacji związanych z tymi słowami kluczowymi – udostępnia listę akcji, które można wykonać na tym obiekcie.

 

Główne funkcje programu Producer 2003

 

                Dodatek Microsoft Producer dla programu Microsoft Office PowerPoint 2003 oferuje wiele narzędzi, które ułatwiają tworzenie, edytowanie, synchronizowanie i publikowanie rozbudowanych prezentacji, które można wyświetlać także w przeglądarce internetowej.

Poniższe funkcje programu Producer 2003 umożliwiają uatrakcyjnianie tworzonych przekazów i prezentacji multimedialnych:

- importowanie wszystkich popularnych formatów plików audio i wideo (wma, wmv, avi, mpeg, mp3, wav),

- importowanie obrazów (m.in. gif i jpg) oraz plików HTML umożliwia uzyskanie bogatych prezentacji,

- program Producer 2003 zachowuje wszystkie animacje i efekty, które zastosowano w programie PowerPoint 2003 lub PowerPoint 2002,

- program umożliwia szybkie synchronizowanie dźwięku i obrazu ze slajdami programu PowerPoint, stronami HTML, obrazami i niemal każdym innym elementem multimedialnym, który można wyświetlić w przeglądarce sieci Web,

- automatyczne generowanie spisu treści na podstawie tytułów slajdów, ułatwiające widzom bezpośrednie przejście do zawartości, która ich najbardziej interesuje,

   

- prezentacje utworzone za pomocą programu Producer 2003 można odtworzyć na komputerach Macintosh przy użyciu programu Microsoft Internet Explorer dla systemu MacOS lub programu Netscape Navigator dla systemu operacyjnego Microsoft Windows,

- program Producer 2003 umożliwia wyświetlenie podglądu opublikowanej prezentacji w takiej postaci, jaka będzie widoczna w programie Internet Explorer lub Netscape dla systemu Windows lub w programie Internet Explorer dla systemu MacOS, nawet jeśli użytkownik nie ma dostępu do tych przeglądarek,

- za pomocą kreatora publikacji można łatwo opublikować gotowy projekt na dysku twardym, skąd można go następnie skopiować na serwer sieci Web lub serwer plików albo „wypalić” na dysku CD; do jego obejrzenia użytkownicy potrzebują tylko przeglądarki internetowej oraz programu Windows Media Player,

    - za pomocą programu Windows Media Player Seria 9 na komputerze z systemem operacyjnym Windows XP można przyspieszyć lub spowalniać odtwarzanie prezentacji programu Producer 2003, nie zmieniając brzemienia głosu narratora, za to zwiększając ogólną wydajność i ułatwiając zrozumienie materiału.

               

                Pobieranie programu Producer 2003 (w wersji angielskiej) jest bezpłatne. Aby używać programu Producer 2003, należy na danym komputerze zainstalować wcześniej program PowerPoint 2003 lub PowerPoint 2002.

 

Impress (Prezentacja) z pakietu Open Office.org

                OpenOffice.org Impress (w wersji polskiej Prezentacja) to zaawansowany program do tworzenia grafiki prezentacyjnej wchodzący w skład bezpłatnego pakietu biurowego OpenOffice.org, dostępnego na platformach Windows, Linux i Solaris.

                OpenOffice.org Impress jest produktem wywodzącym się z pakietu StarOffice niemieckiej firmy Star Division Inc., który został zakupiony przez Sun Microsystems, a 19 lipca 2000 roku został udostępniony do dalszego rozwoju przez społeczność Open Source. Jest dostępny w kilkudziesięciu wersjach językowych, także w języku polskim.

Impress jest programem odpowiadającym funkcjonalnie komercyjnym programom, jak  Microsoft PowerPoint czy Corel Presentations, a więc zawierającym komplet narzędzi do:

- organizowania prezentacji,

- edycji slajdów,

- wyświetlania prezentacji na ekranie,

- eksportu i importu danych

(unikatowa możliwość eksportu do formatu Macromedia Flash i PDF).

                Słabszą stroną programu jest obsługa wideo i dźwięku, niewielki jest też zasób gotowych szablonów dostarczanych razem z pakietem.

 

                Jeszcze na początku 2005 r. program był dostępny tylko w wersji 1.1.x. W październiku 2005 pojawiła się następna wersja pakietu, a mianowicie OpenOffice.org 2.0.

                Impress został w niej w znacznym stopniu przebudowany i udoskonalony.

 

Program udostępniony jest bezpłatnie pod adresem: http://www.openoffice.pl/

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Internet

 

Internet jest zbiorem sieci komputerowych łączących miliony komputerów na całym świecie. Jest więc globalną siecią sieci, stosowaną głównie jako kanał komunikacyjny (np. poprzez pocztę elektroniczną e-mail), choć zawiera także ogromne zasoby użytecznych informacji (w tym multimedialnych), gromadzonych przez osoby prywatne, rządy, środowiska oświatowe i naukowe oraz organizacje komercyjne.

 

 

Internet – główne zastosowania

 

Internet pozwala małym kosztem i w sposób prawie natychmiastowy wymieniać informacje pomiędzy ludźmi na całym świecie. Można w nim:

• wysyłać i odbierać pocztę elektroniczną (e-mail),

• przeglądać strony Web,

• tworzyć osobiste strony domowe,

• przeglądać różnego rodzaju dane multimedialne (dźwięki, zdjęcia, animacje, filmy, prezentacje itd.).

 

 

Internet – środowisko propagujące ideę multimediów

Globalna sieć teleinformatyczna w postaci Internetu jest najbardziej powszechnym środowiskiem propagującym ideę multimediów.

Wraz z wprowadzeniem stron WWW (ang. World Wide Web) powstała możliwość swobodnego przesyłania obrazów, filmów, grafiki, tekstów i dźwięków między dowolnymi punktami na świecie.

Strony zapisane w językach HTML (ang. Hypertext Markup Language) i Java mogą zawierać nie tylko teksty i grafikę, ale również fragmenty filmów, cyfrowo zakodowany dźwięk i animacje komputerowe (dwu- i trójwymiarowe).

 

Internet – środowisko interaktywnych multimediów

Multimedialne zasoby stron WWW oferują także interaktywną komunikację z siecią, co znacznie podnosi atrakcyjność i wygodę korzystania z tych zasobów. Istnieje wiele przykładów możliwości Internetu w dziedzinie popularyzacji techniki multimedialnej:

• system Real Audio,

 

• system Windows Media Encoder,

 

• VRML

 

• QuickTime VR,

 

• Flash i LiveMotion.

 

Internet – multimedialne technologie informatyczne

System Real Audio opracowany przez firmę Real NetWorks służy do przesyłania dźwięku przez sieć. W ten sposób mogła powstać internetowa radiofonia, która pozwala słuchać stacji radiowych z całego świata.

Konfiguracja systemu RealAudio nazywana jest w nomenklaturze informatycznej systemem klient-serwer. Klientem jest komputer użytkownika z zainstalowanym odtwarzaczem RealAudio oraz przeglądarką internetową. Materiał dźwiękowy dostarczany jest przez serwer internetowy wybierany przez użytkownika przez podanie odpowiedniego adresu. Transmisja dźwięku przebiega w czasie rzeczywistym, dlatego dla uzyskania niezakłóconego odbioru niezbędna jest odpowiednia przepustowość połączenia teleinformatycznego użytkownika z Internetem.

 

RealAudio wraz z dźwiękiem może również przesyłać obrazy lub strony WWW. Odbiorca może dzięki temu np. słuchać muzyki, a na ekranie komputera jednocześnie oglądać tekst lub zapis nutowy utworu.

Windows Media Encoder w połączeniu z programem Windows Media Player działają na podobnej zasadzie jak RealAudio. Program Media Encoder to narzędzie służące do konwersji emitowanego na żywo oraz nagranego audio i wideo do plików Windows Media lub danych strumieniowych. Oprogramowanie to umożliwia transmisję filmów z dźwiękiem poprzez Internet w czasie rzeczywistym. Odbiór danych możliwy jest przy pomocy programu Media Player lub przez przeglądarkę internetową.

VRML (Virtual Reality Model Rendering) – ta forma prezentacji posiada olbrzymie możliwości. Przy jej pomocy można tworzyć całe światy, z trójwymiarowymi obiektami, które są w pełni ruchome. Wynikiem VRML jest animowany film, który oferuje widzowi możliwości interakcji. Tego typu animacje 3D mogą być częścią strony WWW. Ten sposób prezentacji nadaje się np. do wirtualnego interaktywnego przedstawienia umeblowanego pokoju itp.

QuickTime VR – obiekty te mogą przedstawiać wirtualne światy z dobrą jakością. Do ich oglądania trzeba posiadać odpowiednie oprogramowanie – darmowy QuickTime Player firmy Apple. Program ten może być uruchamiany jako oddzielna aplikacja lub może być zintegrowany z przeglądarką internetową. W rzeczywistości odtwarza on tylko przygotowane filmy, ale można poruszać się po obrazie i przybliżać szczegóły.

Flash – na pierwszy rzut oka jest podobny do QuickTime VR. Stworzony został przez firmę Macromedia i dlatego do poprawnego działania wymaga produktów tej firmy, takich jak Flash Player. Format ten jest bardzo popularny i ok. 80% użytkowników Internetu go posiada.

Flash oferuje szeroką gamę możliwości prezentacji multimedialnych. Może być stosowany do animowania dźwięku, obrazu i tekstu, a wbudowany język programowania oferuje dodatkowe możliwości interaktywne.

Ukończony film może być skompresowany w małym pliku z rozszerzeniem *.swf (Small Web Format). Mały format osiągany jest poprzez traktowanie obrazu nie jako zbioru pikseli, ale figur geometrycznych. Dzięki temu możliwe jest szybkie przesyłanie tego typu animacji przez Internet i wykorzystywanie ich do uatrakcyjniania stron WWW.

LiveMotion – technologia ta została opracowana przez firmę Adobe jako konkurencja dla Flash. Dzięki niej można tworzyć film pracując tak, jak na stole montażowym. Rezultaty pracy zapisywane są także w postaci plików SWF. Ograniczenie stanowi jednak to, że istnieje tylko możliwość eksportowania plików SWF, ale nie ma możliwości ich importowania. Nie można zatem ponownie edytować filmu po zakończeniu pracy nad nim.

 

Internet – łącza umożliwiające transmisję danych multimedialnych

Efektywne wykorzystanie multimedialnych możliwości Internetu wymaga przekazywania dużych ilości informacji. Łącza telefoniczne wykorzystujące modemy są zwykle w takich zastosowaniach zbyt wolne. Znacznie lepszą szybkość transmisji uzyskuje się przy użyciu cyfrowej sieci ISDN, usługi SDI, czy ADSL (Neostrady), które umożliwiają bezproblemową transmisję danych multimedialnych z Internetu.

 

Gry komputerowe

Gry komputerowe stały się obecnie integralną częścią naszej cyberprzestrzeni.

Trudno jest jednoznacznie wyjaśnić pojęcie gier komputerowych, gdyż jak dotąd nie powstała jeszcze naukowa definicja tego pojęcia.

Czym jest zatem gra komputerowa? Odpowiedź na to pytanie nie jest prosta:

- gra komputerowa to program komputerowy, będący podgatunkiem aplikacji komputerowych,

- „Gra komputerowa jest (...) jedynym w swoim rodzaju zjawiskiem kulturowym, które łączy ludyczność, fikcyjność, bezproduktywność i normatywność z elektronicznym nośnikiem i interakcyjną realizacją, w której odbiorca jest w sposób konieczny twórcą niepowtarzalnego przekazu.” (P.Dąbek, Gra komputerowa i jej sąsiedzi, CHIP).

Obecnie 90% oprogramowania dla domowych komputerów to właśnie gry.

Dzięki ciągłemu doskonaleniu technologii komputerowej, gry stają się coraz bardziej realistyczne.

Ponadto w celu podniesienia ich wiarygodności, firmy produkujące gry zatrudniają specjalistów z różnych dziedzin nauki oraz przedstawicieli różnych zawodów, m.in.: programistów, reżyserów, scenarzystów, muzyków, grafików, specjalistów od efektów specjalnych oraz konsultantów, którzy czuwają nad poprawnością merytoryczną gry.

 

 

Gry komputerowe - historia

Pierwsza gra komputerowa powstała już w 1962 r. Została stworzona przez pracowników Instytutu Technologii w Massachusetts – Dana Edwardsa, Martina Greatza, Petera Samsona i Steva Russela. Nazywała się „Space war”. Grali w nią tylko pracownicy instytutu i nie była nigdy oficjalnie rozpowszechniana.

Pierwszymi urządzeniami, dzięki którym gry komputerowe zaistniały w świadomości odbiorców, były automaty wrzutowe na monety. Gry na automatach weszły do domów dzięki konsolom.

W 1972 r. w Ameryce pojawiła się pierwsza gra tego typu – „Pong”, która była pierwszym domowym systemem umożliwiającym grę na ekranie telewizora. Polegała ona na odbijaniu piłeczki, a jej twórcą był Nolan Bushnell.

Pod koniec lat 70-tych XX w. powstało wiele podobnych gier telewizyjnych.

Z chwilą pojawienia się pierwszych komputerów osobistych rozpoczęła się nowa era gier komputerowych. W 1976 r. powstał komputer osobisty Apple II. Od tego momentu gry zostały podzielone na:

                - konsolowe i

                - działające na komputerach osobistych.

Na przełomie lat 1981/82 pojawił się 8-bitowy komputer ZX Spectrum oraz gry, takie jak np.: „PacMan”, „Jumping Jack”, „Planetoids” oraz pierwsza gra z trójwymiarowym widokiem na pole akcji – „Knight Lore”.

W roku 1986 powstała konsola do gier japońskiej firmy „Nintendo”. Zestaw ten stał się najpopularniejszą grą domową. Składał się z niewielkiego urządzenia, które po podłączeniu do telewizora umożliwiało grę jednej lub dwóm osobom posługującym się miniaturowymi tablicami kontrolnymi z przyciskami lub laserowymi pistoletami.

Później powstały kolejne konsole firm „SONY” i „Sega”.

W drugiej połowie lat 80-tych XX w. pojawiły się również komputery Atari, Commodore i Amiga. Służyły one głównie do gier i nauki programowania. Ich zaletą była możliwość wytwarzania grafiki o wyższej niż dotychczas rozdzielczości oraz stereofonicznego dźwięku.

Wraz z pojawieniem się w latach 90-tych komputerów klasy IBM PC gry komputerowe zyskały ogromną popularność. Dzięki rozwojowi techniki komputerowej następował ciągły jakościowy rozwój gier. W roku 1993 nastąpił przełom w dziedzinie możliwości dźwiękowych. Zamiast sztucznych odgłosów możliwe stało się odtwarzanie całego bogactwa brzmień instrumentów. W roku 1997 natomiast podobny przełom nastąpił w grafice. Pojawiły się bowiem karty graficzne z akceleracją 3D, dodając grom nowy wymiar i możliwość symulowania rzeczywistości z niespotykaną dotąd jakością.

 

Gry komputerowe – główne gatunki

Gry komputerowe bardzo różnią się między sobą. Można wyróżnić bardzo wiele typów gier, z typów wyłonić podgrupy, oraz znaleźć wiele produkcji o wyraźnie mieszanym charakterze. Najczęściej wyróżnia się następujące rodzaje gier:

                - gry strategiczne,

                - symulatory,

                - RPG,

                - gry przygodowe,

                - gry sportowe,

-          gry zręcznościowe, logiczne i tekstowe.

 

Gry strategiczne – polegają na opracowaniu planu dotarcia do celu określonego regułami gry; dzielą się na:

- klasyczne strategie wojenne – gracz ma tu do dyspozycji mapę terenu i wojska, którymi gra przeciwko wojskom kierowanym przez komputer lub innego gracza; akcja podzielona jest na tury, a grający musi tak rozplanować grę, aby stracić jak najmniej żołnierzy; rozrywka ma więc tu charakter intelektualny,

- strategie czasu rzeczywistego (tzw. RTS-y) – wymagają one więcej zręczności niż planowania taktycznego,

-          strategie ekonomiczne.

Symulatory – wywodzą się od stosowanych w wojsku symulatorów lotniczych; umożliwiają graczowi wcielenie się w kierowcę samochodu, pilota samolotu czy sterującego statkiem lub pojazdem kosmicznym.

Role-playing games (RPG) – polegają na odgrywaniu roli; najczęściej ich akcja rozgrywa się w świecie fantazji; gracz kieruje losem jednego lub kilku bohaterów przeżywających różne przygody i tylko od niego zależy, czy osiągną zamierzony cel.

Gry przygodowe – odznaczają się znacznie rozbudowaną fabułą i skomplikowanym wątkiem detektywistycznym; wymagają wytrwałości i zręczności w pokonywaniu przeszkód na coraz trudniejszych poziomach gry; bohaterowie tych gier rozwiązują zagadki, poszukują informacji lub jakichś przedmiotów.

Gry sportowe – są to np. hokej, piłka nożna, koszykówka przeniesione na ekran komputera; polegają na wpływaniu na przebieg rozgrywki sportowej; gracz może pełnić tu rolę menedżera albo zawodnika.

Gry zręcznościowe – dzielą się na:

                               - gry symulujące walkę wręcz,

                               - strzelaniny,

                               - platformówki,

                               - flippery.

Gry symulujące walkę wręcz – najczęściej mają one charakter turnieju, w którym gracz odbywa pojedynki z kolejnymi przeciwnikami w celu zdobycia tytułu mistrza; drugą odmianą tych gier są tzw. gry chodzone, w których grający wędrując w bliżej nieokreślonym celu walczy z różnymi przeciwnikami.

Strzelaniny – grający ma tu za zadanie wydostać się z wrogiej bazy eliminując przy tym za pomocą różnego rodzaju broni potwory lub innych przeciwników; są to zazwyczaj bardzo brutalne gry, a grający widzi świat z punktu widzenia lufy karabinu.

Platformówki – polegają na bieganiu, skakaniu i strzelaniu do wrogów.

Filppery – stanowią symulację automatów barowych.

Gry logiczne – są to różnego rodzaju łamigłówki wymagające wytężonego myślenia,

Gry tekstowe – brak jest w nich grafiki i wszystko odbywa się w trybie tekstowym.

 

Istnieją także gry, których nie można zakwalifikować do żadnej z tych grup, gdyż łączą w sobie cechy kilku gatunków.

 

Gry komputerowe – wykorzystujące technikę VR

Nowym zjawiskiem są gry, w których wykorzystuje się technikę wirtualnej rzeczywistości (VR – Virtual Reality).

VR jest gałęzią grafiki komputerowej i stanowi trójwymiarową stereoskopową komputerową wizualizację połączoną z interaktywnym umieszczeniem obiektów w przestrzeni trójwymiarowej. Daje ona grającemu złudzenie uczestniczenia w środowisku gry, w sztucznej rzeczywistości.

Występuje tu trójwymiarowy obraz, stereofoniczny dźwięk, a nawet różnego rodzaju wrażenia dotykowe.

Urządzeniem do realizacji VR jest hełm z małymi monitorami i słuchawkami oraz przynajmniej jedna specjalna rękawica. Hełm i rękawica połączone są z komputerem, który wytwarza obrazy i przesyła je do monitorów umieszczonych w hełmie. Dźwięk słyszany przez słuchawki jest skojarzony z obrazami, a dzięki rękawicy można dotykać wirtualnych przedmiotów.

W ten sposób gracz nie ma świadomości znajdowania się przed monitorem komputera, ale doświadcza przeniesienia i pozostawiania w nowym otoczeniu. Może w nim spotkać wykreowane przez komputer postacie, oglądać komputerowo stworzone krajobrazy, uczestniczyć w wydarzeniach, a nawet sam może przyjąć dowolną postać.

 

Przyszłość multimediów – VR (Virtual Reality)

Gry komputerowe są ściśle związane z profesjonalnymi zastosowaniami grafiki komputerowej do kreowania wirtualnego obrazu rzeczywistości.

Terminy wirtualna rzeczywistość (VR, ang. Virtual Reality) i przestrzeń cybernetyczna (ang. cyberspace) oznaczają nowe zastosowania tej dynamicznie rozwijającej się dziedziny nauki i techniki.

Sama nazwa – rzeczywistość wirtualna – jest nieco myląca. Pojęcie wirtualności pochodzi z fizyki i używane jest do określania cząstek wirtualnych, które istnieją tylko potencjalnie, a przechodzą w cząstki realne gdy dostarczy im się odpowiednią ilość energii.

Z technicznego punktu widzenia rzeczywistość wirtualna to symulacja komputerowa, ale nie tylko obrazu i dźwięku, lecz „całkowitej” rzeczywistości, w którą można „wejść” i której można „dotknąć”.

Pionierem VR jest I. Sutherland, który w 1965 r. skonstruował kask HMD (ang. Head-Mounted Display) z wmontowanymi dwoma ekranami telewizyjnymi służącymi do obserwacji obrazów przestrzennych. Nie istniały jeszcze wówczas odpowiednie systemy komputerowe zdolne do generowania symulowanych obrazów trójwymiarowych, dlatego Sutherland wykorzystywał sceny filmowe nakręcone stereoskopową kamerą. Metoda ta nie dawała jednak widzowi możliwości interaktywnego oddziaływania na przebieg akcji filmu.

Dopiero w następnej generacji HMD zastosowano czujniki rejestrujące ruch głowy widza. Równocześnie powstały pierwsze komputery zdolne do symulacji obrazów VR w czasie rzeczywistym. W późniejszych odmianach HMD zaczęto montować również słuchawki stereofoniczne potęgujące wrażenie realizmu przebywania w wirtualnej przestrzeni.

Kolejnym etapem było opracowanie specjalnych rękawic z wbudowanymi sensorami przekazującymi komputerowi informacje o ruchach dłoni operatora. Dzięki temu operator mógł nie tylko penetrować wzrokiem cyberprzestrzeń, ale „dotykać” i „przenosić” znajdujące się w niej przedmioty.

Najnowsze systemy VR wykorzystują dodatkowe czujniki ruchu nóg operatora, dzięki którym obserwator może swobodnie poruszać się w wykreowanej przez komputer scenerii.

Pierwszym praktycznym zastosowaniem multimedialnej techniki VR były symulatory lotów do treningów pilotów wojskowych, opracowane w 1982 r.

Systemy VR znajdują coraz liczniejsze zastosowania praktyczne służące projektowaniu, edukacji i rozrywce.

Podstawowym ograniczeniem szerszego rozpowszechnienia techniki VR jest wciąż niedostateczna moc obliczeniowa popularnych komputerów klasy PC. W profesjonalnych systemach VR wykorzystuje się bowiem znacznie droższe stacje robocze o dużo większej mocy obliczeniowej.

Najistotniejszymi cechami przebywania w rzeczywistości wirtualnej są dwa podstawowe czynniki:

                - interakcyjność wysyłanych i odbieranych sygnałów,

- teleobecność (telepresence) czy też złudzenie teleobecności, polegające na wrażeniu, że jest się właściwie „tam”; aby uzyskać ten efekt, potrzebne jest tzw. kompletne zanurzenie przynajmniej dwóch najważniejszych zmysłów, zwykle dotyczy to wzroku i dotyku; wtedy może zajść efekt przebywania w tzw. rzeczywistości wirtualnej.

W najbliższej przyszłości, wraz z rozwojem technologii multimedialnych, rzeczywistość wirtualna zyskiwać będzie na znaczeniu.

Powstaje pytanie: co się stanie, gdy wirtualna rzeczywistość przestanie być imitacją a stanie się imitacją doskonałą (niemalże pierwowzorem)?

Obecnie szybkie stacje graficzne i odpowiednie oprzyrządowanie są w stanie wytworzyć coś, co przypomina rzeczywistość w ok. 90%.

Komputer osobisty z okularami trójwymiarowymi, to ok. 60%, a IRC – czyli zwykłe dyskusje na żywo w Internecie to góra 10%.

Jeśli tak bardzo wciąga nawet dziesięcioprocentowe złudzenie rzeczywistości, to co się stanie, gdy komputer będzie symulował percepcję i wszystkie 5 zmysłów ze 100% dokładnością odwzorowywania?

Wtedy staniemy przed dylematem: wybrać niebieską, czy czerwoną pigułkę?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Co to jest komputer typu Media Center PC?

Komputer typu Media Center PC to zaawansowany komputer, którego centralnym punktem jest system Windows XP.

 

Umożliwia on:

lwysyłanie wiadomości e-mail,

lprzeglądanie sieci Web,

lwymienianie wiadomości błyskawicznych i wykonywanie standardowej pracy,

lmożna na nim instalować potrzebne programy zgodne z systemem Windows XP (np. pakiet Microsoft Office lub gry) tak samo jak na każdym komputerze z systemem Windows XP.

 

Jedno naciśnięcie zielonego przycisku Start na pilocie komputera typu Media Center lub kliknięcie myszą umożliwia uzyskanie dostępu do wszystkich cyfrowych plików multimedialnych dzięki prostemu w użyciu systemowi menu oprogramowania Media Center, a potem korzystanie z szerokiego zakresu nowych funkcji.

 

Jeśli mamy dostęp do sieci domowej oraz oprogramowania Media Center Extender lub konsolę Xbox 360, możemy w całym domu uzyskiwać dostęp do wszystkich cyfrowych plików multimedialnych na komputerze typu Media Center PC lub odbiorniku telewizyjnym i używać ich, korzystając z jednego systemu menu oprogramowania Media Center.

Wszystkie pliki przechowywane na komputerze typu Media Center można zabrać ze sobą w drogę. Możemy pobrać muzykę, zdjęcia, filmy i nagrania telewizyjne na urządzenie Portable Media Center i korzystać z nich w podróży.

                System Microsoft Windows XP Media Center Edition 2005 (polska premiera – 25 października 2005 r.) ma wszystkie możliwości innych systemów Windows XP i wiele innych, nowych funkcji. Dzięki nim można przeglądać sieć Web, grać w ulubione gry komputerowe, wymieniać wiadomości e-mail i wiadomości błyskawiczne, a także instalować programy przeznaczone dla systemu Windows XP i korzystać z nich.

                Komputer typu Media Center to wszechstronne i jednocześnie przyjazne urządzenie, które pozwala cieszyć się wszelkimi rodzajami rozrywki cyfrowej — zdjęciami, muzyką, programami TV, filmami, domowymi nagraniami wideo, audycjami radiowymi oraz szerokim zakresem aplikacji i usług.

                Komputer typu Media Center to komputer i domowe centrum rozrywki w jednym.

 

ØOdtwarzanie dysków DVD

ØTelewizja

ØMuzyka

ØWideo

ØObrazy

ØKopiowanie na dysk CD/DVD

ØW centrum uwagi

ØSynchronizacja z urządzeniem

ØPilot zdalnego sterowania

ØUsługa Movie Finder

ØZdalne nagrywanie lokalnej telewizji cyfrowej TV/HDTV (funkcja dostępna tylko na terenie USA)

ØRadio

 

Odtwarzanie dysków DVD

                Dzięki systemowi Windows XP Media Center Edition 2005 można odtwarzać filmy DVD na komputerze typu Media Center PC. W systemie tym istnieje dostęp do funkcji odtwarzania dysków DVD z zastosowaniem opcji progresywnego skanowania oraz wyszukiwania rozdziałów w trybie online na komputerach typu Media Center PC wyposażonych w dekodery DVD produkowane przez partnerów Media Center (jest standardowy sprzęt dla nowych konfiguracji komputerów).

 

Telewizja

                Funkcja Telewizja upraszcza wyszukiwanie, oglądanie i nagrywanie programów telewizyjnych, nawet na wielu kanałach równocześnie (zarówno analogowych, jak i cyfrowych). Funkcje telewizyjne działają w przypadku antenowego, kablowego i satelitarnego sygnału telewizyjnego, a ich konfiguracja jest prosta. Funkcja Telewizja to możliwość oglądania telewizji na żywo, opcja nagrania telewizyjne, przewodnik po programach, opcja wyszukiwania w przewodniku i nowa usługa wyszukiwania filmów (Movie Finder).

 

Muzyka

                Funkcja Muzyka umożliwia uzyskiwanie dostępu do kolekcji utworów muzycznych — osobistych i przechowywanych online. Można w sposób prostszy niż wcześniej odtworzyć dysk CD z muzyką, skopiować jego zawartość do biblioteki, nagrać dysk CD, utworzyć listę odtwarzania i edytować szczegóły albumu.

 

Wideo

                Funkcja Wideo udostępnia alternatywny widok folderu Wideo w systemie Windows XP. Widok ten umożliwia organizowanie plików i folderów według daty lub nazwy oraz wyświetlanie miniatury dla każdego klipu.

Funkcja ta umożliwia obsługę najczęściej używanych formatów nagrań wideo, w tym standardowych plików avi, mpg i wmv.

 

Obrazy

                Funkcja Obrazy to nowy sposób organizacji z pracy ze zdjęciami cyfrowymi i nowy rodzaj ich udostępniania.

Umożliwia ona pobieranie zdjęć z aparatu cyfrowego, przeglądanie zdjęć i grafik, szybkie tworzenie pokazu slajdów, a także korygowanie i drukowanie zdjęć oraz nagrywanie ich na dysk CD.

Możliwe jest to do realizacji korzystając wyłącznie z pilota.

 

Kopiowanie na dysk CD/DVD

                Funkcja ta umożliwia:

 

W centrum uwagi

Funkcja W centrum uwagi umożliwia korzystanie z szerokiego i wciąż zwiększającego się zakresu różnych rodzajów rozrywki.

W jej skład wchodzi przewodnik online, dzięki któremu można uzyskiwać prosty i szybki dostęp do wielu usług muzycznych i radiowych, pobierać filmy i usługi na żądanie oraz usługi informacyjne, zapewniające stały dostęp do dostosowanych programów sportowych, rozrywkowych i wiadomości w trybie online (w przypadku tej funkcji niezbędny jest dostęp do Internetu!)

 

Synchronizacja z urządzeniem

Dzięki tej funkcji podczas podróży można korzystać z programów telewizyjnych, muzyki, nagrań wideo i zdjęć cyfrowych. Jest to możliwe dzięki funkcji przeniesienia ulubionych plików multimedialnych do urządzenia Portable Media Center, Smartphone, Pocket PC, odtwarzacza muzycznego lub innych urządzeń magazynujących, takich jak zewnętrzne dyski twarde.

 

Pilot zdalnego sterowania

Pilot zdalnego sterowania komputera typu Media Center ułatwia dostęp do wszystkich funkcji na tym komputerze, a także stanowi uzupełnienie klawiatury i myszy.

 

Usługa Movie Finder

Nowa usługa Movie Finder ułatwia wyszukiwanie (poprzez Internet) ulubionych filmów. Dzięki niej można wykorzystać maksymalnie ofertę swojego pakietu telewizji kablowej lub satelitarnej poprzez możliwość prostego wyszukiwania i nagrywania filmów dostępnych w tej ofercie. Dzięki tej usłudze można także dowiedzieć się, jak wypożyczyć nowości lub starsze filmy, korzystając z usług filmowych w trybie online.

 

Zdalne nagrywanie lokalnej telewizji cyfrowej TV/HDTV (funkcja dostępna tylko na terenie USA)

System Windows XP Media Center Edition 2005 udostępnia pełną obsługę telewizji na żywo oraz nagrywania osobistych filmów wideo dla lokalnych sieci telewizyjnych ATSC Digital TV (480p) oraz High Definition TV (720p/1080i), których programy są dostarczane za pośrednictwem anteny UHF.

Cyfrowe programy satelitarne (DTV) oraz kablowe programy o wysokiej jakości (HDTV) można oglądać w standardowej jakości TV na odbiorniku telewizyjnym. Funkcja umożliwia obsługę dwóch tunerów analogowych i jednego tunera DTV/HDTV dla lokalnych kanałów za pośrednictwem sygnału zdalnego (tylko na terenie Stanów Zjednoczonych). We wszystkich innych objętych tą funkcją regionach można obsługiwać maksymalnie dwa tunery na komputer. 

 

Radio

Funkcja Radio to stały dostęp do usług radiowych — internetowych lub w trybie FM — i możliwość przechowywania niezbędnych informacji w jednym miejscu.

Słuchacze radia FM mogą w prosty sposób korzystać ze wstępnych ustawień radiowych (dotyczących na przykład odtwarzaczy radiowych), a nawet wstrzymywać i przewijać do tyłu do 30 minut audycji radiowych na żywo.

 

Więcej programów

Funkcja Więcej programów to prosty sposób organizowania i używania aplikacji oraz usług przeznaczonych dla oprogramowania Media Center, które są instalowane i udostępniane na komputerze typu Media Center PC.

Opcja menu Więcej programów służy do organizowania wszystkich zainstalowanych aplikacji i usług dla oprogramowania Media Center w jednym miejscu.

Funkcje systemu Windows XP Media Center Edition 2005 - komputer i domowe centrum rozrywki w jednym (podsumowanie)

System Microsoft Windows XP Media Center Edition 2005 ma wszystkie możliwości innych systemów Windows XP i wiele innych. Dzięki nim można przeglądać sieć Web, grać w ulubione gry komputerowe, wymieniać wiadomości e-mail i wiadomości błyskawiczne, a także instalować programy przeznaczone dla systemu Windows XP i korzystać z nich. Komputer typu Media Center to wszechstronne i jednocześnie przyjazne urządzenie, które pozwala cieszyć się wszelkimi rodzajami rozrywki cyfrowej — zdjęciami, muzyką, programami TV, filmami, domowymi nagraniami wideo, audycjami radiowymi oraz szerokim zakresem aplikacji i usług.

Komputer typu Media Center to komputer multimedialny i domowe centrum rozrywki w jednym.