2010. június 24., csütörtök

A metafikció után

A metafikció – mondja John Garner amerikai író - „stílusában és témájában egyaránt a fikció [tényére] fókuszál”, nem pedig arra, hogy a realista kelléktárat felvonultatva egyfajta valóságot hozzon létre, amely – amennyiben jól van megírva – mintegy magába szippantja az olvasót.
Maga a fogalom az 1960-as években terjedt el, de persze korábban is írtak már ilyen műveket (gondoljunk csak Sterne Tristram Shandyjára), és számomra ez azért izgalmas téma, mert miközben arról szól, hogy teljesen máshogyan is lehet írni, mint ahogyan Flaubert óta a realista regényírók csinálják, két kérdést is felvet. Egyfelől, hogy miért gondoljuk egyáltalán, hogy érdemes megkülönböztetni a metafikciót a hagyományos művektől. Másfelől, hogy miként és milyen irányba lehet továbblépni. És ez viszont részben arról is szól, hogy mit tekintünk az irodalom lényegének.
Ami az első kérdésre adható választ illet, valójába nem szükségszerű, hogy létezzen különbség a az írás révén megteremtett „valóság” meg maga az ennek a célnak az elérésére használt eszközök között.
A nyelv és gondolkodás viszonyáról folytatott vitában vannak, akik az egyiket vagy a másikat tartják elsődlegesnek. Meg olyanok is, akik azt mondják, hogy ezt a kettőt ugyanolyan értelmetlen megkülönböztetni, mint az alagutat meg a boltívet, melyek kölcsönösen feltételezik egymást., és ebben az értelemben egyáltalán nem szükségszerű a fikció és a meteafikció megkülönböztetése sem. Ugyanúgy, mint ahogy ma legtöbbünknek nem jutna eszébe az „istenes” és a „nem istenes” irodalmat megkülönböztetni sem.
Ami viszont részben válasz a második kérdésre is, ugyanis a fentebbiek alapján az gyanítható, hogy miközben a belátható jövőben továbbra is fognak metafikciót írni (mert miért is ne írnának), aközben újabb megközelítési módok bukkanhatnak fel. Méghozzá – nevezzük talán így – külső, illetve belső megközelítési módok.
Például fontossá válhat egy, az irodalom számára külsődleges szempont: mondjuk az, hogy mennyire elkötelezett a környezetvédelem iránt. Nagyjából a 20. század elejére konszenzus alakult ki azzal kapcsolatban, hogy az „igazi irodalom” a jellemábrázolásról és a stílusról szól – legalább elvileg elképzelhető azonban egy ellenkező irányú elmozdulás is. Ez persze teljes átrendeződéshez vezetne, hiszen a krimi vagy éppen a SF ma azért nem egyenrangú az „igazi szépirodalommal”, mert nem az „igazi szépirodalom” által fontosnak tartott értékekre koncentrál.
Viszont az elképzelhető korántsem azonos a valószínűvel: a 18. század elején a mai értelemben vett irodalmat kezdték megkülönböztetni a többi írott dolgoktól (kezdve a közönséges levelén és befejezve a filozófiai műveken), és egyelőre semmi jel nem mutat rá, hogy más lenne a tendencia. Vagyis személy szerint arra számítok, hogy a következő újdonság is ugyanolyan „belső” újdonság lesz, mint amilyen a metafikció volt – de azzal kapcsolatban elképzelésem sincs, hogy pontosan micsoda.

2010. június 19., szombat

Csak itt, csak Önnek?

A hagyományos, papír alapú könyvnél a másolásra szolgáló eszköz (a nyomdagép) elkülönült a végeredménytől, amelyet innentől kezdve nyugodtan kölcsön- vagy odaadhattunk valakinek – elvégre ettől nem lett több belőle. Könyvkalóz kizárólag olyasvalaki lehetett, aki rendelkezett nyomdagéppel is, és eltekintve a szitázással előállított, nem tartalmi, hanem technikai értelemben véve meglehetősen rossz minőségű szamizdatoktól, a helyzet egészen az elektronikus  szöveg megjelenéséig nem igazán változott meg. A fénymásolók ebből a szempontból azért nem számítanak még akkor sem, ha valóságos ipar épült a drága egyetemi jegyzetek kalózmásolatainak előállítására, mert nem ugyanazt nyújtják, mint az eredeti könyv: rendszerint kevésbé jól olvashatóak, nincsenek rendesen bekötve; nehezebb lapozni őket, és így tovább. Vagyis még ha arra alkalmasak is, hogy az adott tananyagot elsajátítsuk belőlük, korántsem ugyanolyanok, mint amit lemásoltunk. Ami egyben azt is jelenti, hogy mindkét, a nyomtatást helyettesítő megoldás rosszabb (nehezebben kezelhető, rosszabbul olvasható stb.) eredményhez vezet, és ezen csak a számítógép elterjedése változtat.
Ez ugyanis azt eredményezi, hogy az eddigiekkel ellentétben nem csupán a tartalom, de a minőség is pontosan reprodukálhatóvá válik és innentől kezdve bárki, akinek megvan az adott mű elektronikusan, az mintha csak rendelkezne egy „tökéletes nyomdagéppel”, és ebből a szempontból a másolásvédelem első lépésben mint nem lenne más, mint kísérlet ennek az új lehetőségnek a kiiktatására.
Az egyik alapvető megoldás az, hogy a könyvet ugyanúgy hardverhez kötjük, mint ahogy a hordozó anyaghoz volt kötve a nyomtatás korában is, és ha megvesszük Sony e-book-ra, akkor ugyanúgy nem fogjuk tudni áttenni iPad-re, mint ahogy a papír alapú könyv egyik kiadásának megszerzése sem jelentette azt, hogy akkor a másikat majd ingyen adják. Azzal a nem elhanyagolható különbséggel, hogy egy másik papírkiadásnak elég komoly járulékos költségei vannak, míg az elektronikusnak nincsenek.
Úgyhogy megtehetjük azt is, hogy nem azt szabályozzuk, hogy hány példányhoz jut hozzá (mint eddig), hanem azt, hogy ki ő - vagyis az olvasót azonosítjuk, azzal pedig nem foglalkozunk, hogy éppen milyen hardveren keresztül akar olvasni (mint ahogy a Google Editions erre a koncepcióra épül). Innentől kezdve az alábbi megoldások állnak a rendelkezésünkre:

  1. bárki, bármit, bármikor – példának okáért ez a bejegyzés is ilyen itt, a könyvkettő blogban. Az elektronikus szöveg első, lassanként minden bizonnyal véget érő korszakára ez volt a jellemző
  2. bárki, de csak azt az egyet – a másolásvédelemmel ellátott elektronikus könyvolvasók rendszerint ezt a koncepciót valósítják meg. Ha megvettem egy szöveget az e-book readermre, akkor a barátom is el tudja olvasni - amennyiben kölcsön adom neki a készüléket
  3. csak ő, de bárhogy: lásd a Google Editons-t. Ha azonosítottuk az olvasót, akkor joga van különböző helyeken, formákban és platformokon hozzáférni az adott tartalomhoz
  4. csak ő és csak azt: ez a másik véglet ahhoz képest, hogy mindent megengedünk. Elvileg nincs akadálya, hogy az olvasó számára egyetlen eszközön keresztül biztosítsunk hozzáférést egyetlen elektronikus „példányhoz”, és közben még azt is ellenőrizzük,hogy tényleg ő hajol-e az e-book reader fölé, vagy valaki más. Ez még a hagyományos papírkönyvnél is korlátozóbb megoldás, de technikailag biztosan megvalósítható.

És hogy melyik fog elterjedni? Az első szerintem semmiképpen, bármennyire is szimpatikus nekem, úgyhogy marad a másik három közül valamelyik. De hogy melyik, azt nem tudom (és csak remélni tudom, hogy nem a negyedik).

http://www.futurebook.net/content/does-drm-mean-google-have-already-won-ebook-war

2010. június 15., kedd

Könyvekbe temetve

Egészen pontosan: az Encyclopaedia Britannicákba, és a kezemben egy iPad van - azt hiszem, ennél többet nem is akarhatok az élettől:-)  A fényképeket Túry Gergely, az interjút pedig Serf András  készítette a HVG számára (a teljes interjú itt olvasható). Köszönet mindkettőjüknek. Öröm volt velük beszélgetni és fényképeztetve lenni.



Kattintson a képekre nagyításért!

2010. június 13., vasárnap

A mecénástól a Branda Calypsoig

Az i. sz. 1000. év utáni évszázadok irodalmát az jellemezte, hogy „mindenekelőtt elmondásra vagy hallgatóság előtti elmondásra szánták”, állapítja meg Marcel Thomas, a Francia Nemzeti Könyvtár Kézirattárának vezetője, és ez kihatott a formára is:  a szerzőknek célszerű volt versben megfogalmazni a gondolataikat, hogy könnyebben meg lehessen jegyezni (ami egy modern, olvasásra szánt műnél persze nem szempont). A film vagy még inkább a rádió mint hasonlaton keresztül tudhatjuk a legjobban megérteni, hogy „mit jelenthet... az irodalmi alkotások... olyan közvetítése, amely nem az írott gondolatok... útján keresztül megy végbe”.
Másfelől a forma kihatott a „szellemi jogok” érvényesítésére is, ugyanis a szerző választhatott, hogy vagy féltékenyen őrzi a művét, és akkor viszont senki nem hall róla; vagy pedig közzéteszi, és akkor elveszíti felette az ellenőrzést. Úgyhogy számára az volt a legjobb megoldás, ha talált egy mecénást. Ami másként fogalmazva azt jelenti, hogy „szerzői jogdíjat teljes egészében a mű első, és csupán egyetlen példányból álló 'kiadásába' kellett beleépíteni”, mutat rá Thomas. De emellett persze kérhetett pénzt azért is, hogy megtanítsa másoknak is a művét; vagy hogy eladott egy másolatot belőle. Vagyis még amennyiben abból indulunk is ki,hogy aki alkot, az anyagi ellenszolgáltatást is vér érte (mint ahogy ez számos esetben nem igaz), akkor is több, különböző megoldás közül lehet választani, és ennek megfelelően a nyomtatás elterjedésével megjelenő, hagyományos copyright is csupán az egyik, nem pedig az egyetlen lehetőség.
A másik tanulság pedig az, hogy nem mintegy a reprodukció hogyanja sem, és ha nem olyan, csupán kevesek által elérhető eszközök segítségével történik, mint amilyen a nyomdagép, hanem például a megfelelő mnemotechinkák elsajátítását követően mindenkinek a rendelkezésére áll, úgy a tartalom feletti ellenőrzés jellege is megváltozik. Chris Andreson az Ingyen! című könyvben említi a brazil „slágergyáros” Branda Calypsot, amely CD-it egy-egy koncert előtt „minden utcasarkon” kapni lehet. Ezek „a helyi DJ-k saját, helyi stúdiójában készülnek”, és bár a bevételből az együttes nem részesül, semmi kifogásuk nincs a dolog ellen, mivel a koncertjeik promóciójának tekintik. Amivel kapcsolatban Anderson máshelyütt azt mondja, hogy „a zeneiparnak mindig is a fellépések jelentették a legjövedelmezőbb részét”. Például a Rolling Stones bevételeinek 90 százaléka származott a 2000-es évek elején ebből. Azaz: a zeneipar problémája nem feltétlenül azonos az előadóművész problémájával, és ugyanez érvényes a könyvekre is: a kiadótulajdonos Tim O'Reilly egyenesen úgy fogalmaz, hogy „az író ellensége nem a [könyv]kalózkodás, hanem az ismeretlenség.”
Nagyon leegyszerűsítve tehát azt mondhatnánk, hogy míg sem a szerző, sem pedig az olvasó (hallgató, fogyasztó) nem hagyható ki a modellből a történelem folyamán semmikor (hiszen nélkülük értelmetlenné válna az egész), a hivatásos közvetítőre: zenemű- vagy könyvkiadóra például még abban az esetben sincs feltétlenül szükség, ha azt akarjuk, hogy az alkotó kapjon valamit a munkájáért. Úgyhogy kíváncsi lennék rá, hogy a tartalmak elektronikussá alakulását követően milyen megoldás fog elterjedni: olyan-e, amilyen már volt, és mondjuk a valahai mecénások helyét a korporációk veszik át (ennek minden előnyével és hátrányával együtt); vagy valami egészen új következik.
De hogy más lesz, mint most, azt teljesen biztosra veszem.

2010. június 9., szerda

Lepkék és szülők

A filozófus David Hume azt vetette fel a 18. században, hogy a lepkéknél a két egymást követő generációja soha sem találkozik, hiszen közéjük „ékelődik a hernyó és a báb állapot” (hogy a demográfus Herwig Brig demográfus megfogalmazását vegyük kölcsön). Azaz: az információátadás itt kizárólag az adott generáció egyszerre élő tagjai között lehetséges, és ebből a helyzetből két módszer jelenthet kiutat. Az egyik az élettartam olyan mértékű megnövelése, hogy a szülők még éljenek, amikor az utódok kibújnak a bábból; a másik a továbbadandó információ külső, az éppen élő példányoktól függetlenül létező hordozóra való rögzítése. Az első nélkül persze nem lehetséges a második sem, hiszen ha nem tanítják meg rá, akkor az utódok nem lesznek képesek elolvasni az elődök üzenetét.
Bár az emberek esete kissé más, nem különösebben meglepő módon nálunk eddig két nagy „információátadási áttörésre” került sor. A kőkorszakban az átlagéletkor 20 év volt, és ez azt jelentette, hogy a nők csupán 5-8 éven keresztül szülhettek. Tehát ez egy olyan kor volt, amikor „a demográfiai feltételek nem kedveznek a szellemi felfedezések generációk közötti továbbadásának”, mondja Birg. Ugyanis a szülők és gyerekek túlságosan rövid ideig éltek egymás mellett.
Valójában azonban a lepkehasonlat itt kimondottan felréveztető, hiszen az emberek esetében nem egyszerre hal meg az egész nemzedék, és így nem is ez jelenti az igazi gondot. Hanem az, hogy aki csupán néhány évig felnőtt, annak nincsen elég ideje nagy mennyiségű információ begyűjtéséhez és feldolgozáshoz, és ezért egyszerűen nincs mit tovább adnia nem csak a saját, legfeljebb néhány éves gyerekének, de a törzsben élő serdülőknek sem, akiknél alig idősebb. Úgyhogy azért volt alapvető fontosságú, amikor az átlagéletkor 30-35 évre nőtt. Elvégre innentől kezdve 5 helyezett 15, sőt, akár 20 felnőtt éve volt az embereknek, és ez szinte azonnal elvezetett a fémmegmunkálás, az írás és egyéb komplex tevékenységek megjelenéséhez.
Az írás pedig megfelel a második fázisnak, amikor az információkat tőlünk független hordozóra rögzítjük, és ezzel párhuzamosan meg tudjuk tanítani a visszafejtését is a következő generációnak. Ez utóbbihoz elengedhetetlen, hogy elég hosszú ideig éljünk, de ezen túl az információátadás szempontjából teljesen mindegy, leszünk-e még nagy- vagy éppen dédnagyszülők is.
Hogy a harmadik fázis mi lesz, nem tudom – és ami azt illeti, nem is vagyok biztos benne, hogy lesz még ahhoz fogható előrelépés, mint amilyen az élettartam megnövekedés, illetve az írás megjelenése volt.

2010. június 6., vasárnap

Egy végső Wikipédia felé?

Amikor a Google más szolgáltatókhoz hasonlóan magyarul is elérhetővé tette a levelező programját, a keresést stb. , akkor két előfeltevésből indult ki. Abból, hogy az olyan, közepes nagyságú nyelvek felhasználóit is érdemes elszippantani, mint amilyen a miénk (mert összességükben ezek is hatalmas piacot jelentenek); illetve abból, hogy mindössze statikus fordításra van szükség. Azaz elég egyszer beírni a megfelelő file-ba a „save as...” helyett, hogy „mentés másként”, és innentől kezdve nem kell foglalkozni vele. Ami persze azt jelenti,hogy innentől kezdve minden statikus szöveget használó felhasználói felülettel rendelkező alkalmazás a  magyar alkalmazások riválisává válik: a gmail a freemail-nek; a facebook az iwiwnek, és így tovább.
Ez volt az első fázis, most pedig a második elején tartunk: a Chrome nevű böngésző például  felajánlja, hogy lefordítja az adott oldalt magyarra, és bár ezt egyelőre nevetségesen rosszul csinálja, néhány éven belül minden bizonnyal elfogadható minőségű lesz a végeredmény (mint ahogy már ma is egészen jól működik a németről vagy franciáról angolra történő fordítás).
Innentől kezdve viszont a magyar hír site-ok a BBC-vel, a CNN-nel meg a hasonlókkal lesznek kénytelenek versenyezni. Ad absurdum ugyanis a böngészők (vagy az, mi felváltja őket) automatikusan fogják fordítani a szövegeket, és így nem lesz értelme annak, hogy egy magyar hírportál egyszerűen átvegye a külföldi beszámolót.
Ez azonban nem szükségképpen fogja azt eredményezni, hogy az itthoniak feleslegessé válnak – elképzelhető olyan modell is, ahol a helyi szolgáltatók elkezdenek egyfelől a jóval regionális(abb) hírekre koncentrálni, hogy megőrizzék olvasóikat (én is szívesen tájékozódnék arról, hogy egy olyan utcában, amelyen naponta végig megyek, mikor szerelik fel a régóta tervezett jelzőlámpákat); illetve felértékelődhet a „hozzáadott érték” szerepe. Mivel az a magyar portál szempontjából nem hír, amit bárhol el lehet olvasni, ezért szakértőket fog megkérdezni az adott témával kapcsolatban; háttéranyagot állít össze; sajátos és összetéveszthetetlen stílust alakít ki, és így tovább. Azzal kapcsolatban persze csak találgatni lehet, hogy ez mennyire lesz képes megtartani az olvasókat.
És persze az is érdekes problémához fog vezetni, hogy a Wikipédiában ma számos olyan szócikk található, amely különböző nyelveken, de többé-kevésbé eltérő formában, stílussal, tartalommal és hivatkozásokkal érhető el. Miként a szócikk-fordítással foglalkozó Wikipédia-oldal is leszögezi, „ugyanazt témát különböző nyelveken eltérő módokon lehet szerkeszteni, [és] nem szükségképpen egymás fordításai” az így létrejövő változatok.
Innentől kezdve többféle irányba indulhatunk.

  • Vagy megtartjuk a különböző verziókat, és a fordítón mint afféle interfészen keresztül olvasva a Wikipédiát adott eseteben számos, egymástól többé-kevésbé eltérő verzió között választhatunk (kérdés, hogy mi alapján)
  • vagy pedig el fog kezdődni a különböző változatok egységesítése, és végül csupán egyetlen szócikk marad (ismét csak kérdés, hogy milyen szempontok szerint)
  • és persze az is elképzelhető, hogy egyes szócikkeket egységesíteni fognak, míg lesznek olyanok is, amelyeket jellegük miatt nem.

De semmiképpen sem lesz egyszerű a dolog.

http://en.wikipedia.org/wiki/Non-English_Wikipedias/TextToTranslate

2010. június 3., csütörtök

Az exemplartól a kronologikus információtárolásig

Richard Dawkins angol evolúcióbiológus Folyam az Édenkertből című könyvében foglalkozik között „a szeret mindet valóra vált” című lánclevéllel is. Ebben – a jó néhány másolási mutáció eredményeként – olyan sorok olvashatóak, mint például: „Ezt a levelet nem atta ki a kezéből 96 órán belül. Végül, amint elhatározta, legépelte a levelet, és vet egy új autót. Ne pénzt külgy. Ne feledkez meg erről, mert hat”, és így tovább.
Ez jó példa arra,hogy a másolás hibákat eredményezhet, és az ebből fakadó problémákat a nyomtatás előtt úgy próbálták csökkenteni az egyetemek, hogy bevezették az exemplar intézményét. Vagyis kizárólag „ellenőrzött és gondosan átvizsgált kéziratokat” volt szabad másolásra kölcsön adni, írja A könyv születésével kapcsolatban a Lucine Febvre – Henri-Jean Martin szerzőpáros. A másolatról pedig tilos volt újabbakat készíteni, és így elírások megjelenhettek ugyan a szövegben, de nem halmozódhattak fel – ellentétben mondjuk a sok lépésen keresztül torzuló dawkinsi lánclevéllel.
A nyomtatás persze nem vezetett el a hibátlan szöveghez, de innentől kezdve a különböző példányokba nem különböző (mint az exemplarnál), hanem ugyanaz a hiba került bele. Ez, miként korábban már szó volt róla, a textutális stabilitás alapfeltétele, amely nélkül viszont nem lenne lehetséges modern értelemben vett tudomány (mivel a pontosan továbbadott mérési eredmények hiányában nem lehetne megismételni a kísérleteket).
A következő lépés pedig minden bizonnyal az volt, amikor David Gelernter számítógéptudós azt a kérdést vizsgálta meg, hogy a hagyományos, lényegében papír alapú, „nyomtatáskori irodát” utánzó desktop-metaforát mivel lehetne lecserélni, és arra jutott, hogy érdemes lenne egyfajta „időutazást” bevezetni,. Ugyanis így lehetővé válna, „hogy helyreállítsunk bizonyos kontextusokat a múltból”, és „kronologikus információtárolást” valósítsunk meg.
Azaz ha egy műnek sem a címére, sem a szerzőjére nem emlékszünk, csak arra, hogy mikor láttuk, akkor Gelernter rendszere egyszerűen rekonstruálná az adott időpont körülményeket (mondjuk azt, hogy 1995 tavaszán hogyan nézett ki a desktopunk, mi volt rajta stb.), és ez alapján találnánk meg, amit kerestünk. Miközben az ilyesmi a valós életben nem lehetséges, a cybertérben nagyon is az, és persze már van is ilyenre példa. Például az, ahogy a Wikipédia vagy éppen a Google Dokumentumok megőrzik az előző változatokat is, és ezáltal módunk nyílik rá, hogy a későbbieket össze tudjuk hasonlítani a korábbiakkal, és ez persze a hibajavítás szempontjából is előrelépés. Elvégre innentől kezdve azt is pontosan meg tudjuk mondani, hogy hol és mikor „mutálódott” a szöveg.
Ugyanúgy, mint ahogy a nyomtatás megjelenése előtt nem létezett textuális stabilitás, a számítástechnika elterjedése előtt nem volt lehetséges kronologikus információtárolás. Azaz az utóbbi két információkezelési forradalom: a könyvnyomtatás és a számítástechnika egyaránt tökéletesen új dolgokat tett lehetővé, és ha arra gondolunk, hogy Gutenberg találmányának milyen alapvető és mindent átformáló, előre nem látott következményei voltak, akkor legalábbis elképzelhető, hogy a kronologikus információtárolás is komoly változásokhoz fog vezetni.