Raportti American Library Associationin vuosikokouksesta 2013
Juha Hakala
Kansalliskirjasto
Tämä artikkelin pysyvä osoite on http://urn.fi/URN:NBN:fi-fe201312137634
ALA:n vuosikokous on suurin kirjastoalan konferenssi: vuoden 2013 tapaamiseen 27.6-2.7 osallistui 20 237 kirjastoalan ammattilaista ja 6 125 näytteilleasettajaa. Pohjoismaista väkeä ALA-kokouksissa käy valitettavan vähän, koska tapaamiset ovat poikkeuksetta juhannusviikolla.
Olen osallistunut ALA:n vuosikokouksiin kahdesti, 2008 Anaheimissa ja 2013 Chicagossa. Ensikertalaiselle tapaaminen on runsaudensarvi, jonka rinnakkaisten sessioiden valtaisa määrä hämmentää. Toisella kertaa omalta kannalta keskeisten asioiden löytäminen ja oman aikataulun laatiminen on helpompaa, mutta vaatii huolellista ennakkovalmistelua. Konferenssien hyvät Web-sivustot helpottavat suunnittelua, ja kokousten jälkeen ulkopuolisetkin voivat selvittää mistä on puhuttu. Kahden edellisen vuoden esitelmät ovat kattavasti verkossa (ks. http://ala13.ala.org/sessions/handouts sekä http://ala12.scheduler.ala.org/sessions/handouts) ja useilta edellisiltä vuosilta on tarjolla valittuja paloja [1] .
Kahden konferenssin perusteella voi jo alustavasti arvioida kirjastojen ja kirjastoatk:n muutostrendejä. Perinteiset integroidut kirjastojärjestelmät ovat muuttumassa palvelualustoiksi joiden avulla voidaan hallinnoida sekä perinteiset että digitaaliset kokoelmat. Elektronisten aineistojen pitkäaikaissäilytyksestä on tullut tärkeä ja näkyvä teema, ja tutkimusdatan kuvailusta ja tallentamisesta on tulossa amerikkalaisille yliopistokirjastoille tärkeä uusi vastuualue. Korkeakoulukirjastojen roolin laventuminen on pantu myönteisesti merkille – eräs kirjastonjohtaja kertoi, että tutkijat jotka muutamia vuosia sitten arvelivat saavansa tarvitsemansa tiedot Googlesta, tukeutuvat nyt kirjastojen apuun.
Kirjastojen uudet järjestelmät
Avoimen lähdekoodin sovellukset löivät itsensä läpi DSpacen ja Fedoran voimin julkaisuarkistoissa jo useita vuosia sitten. On mahdollista, että sama muutosprosessi on käynnistynyt kirjastojärjestelmissäkin. Eikä siinä kaikki – nyt puhutaan palvelualustasovelluksista integroitujen kirjastojärjestelmien sijaan [2] .
Palvelualustojen toimintaympäristön edellytetään olevan teknisesti viimeistä huutoa – ne tullaan tarjoamaan pilvipalveluna, ja yhtä keskitetysti hallinnoitua ohjelmistoinstanssia jakamassa voi olla useita kirjastoja. Mutta perinteiset järjestelmät voidaan myös tarjoilla tällä tapaa. Oleellinen ero niiden ja palvelualustojen välillä on toiminnallinen: palvelualustoilla on voitava hallinnoida rinnan sekä painettuja että elektronisia aineistoja niille luonteenomaisella tavalla. Perinteiset järjestelmäthän on alun perin rakennettu painetun aineiston hallinnointiin korttiluetteloiden logiikan pohjalta, ja tältä pohjalta on vaikea saada aikaan tehokasta elektronisten aineistojen käsittelyä.
Perinteisen integroidun kirjastojärjestelmän hankinta on suoraviivaista, koska sekä järjestelmätarjonta että kirjastojen odotukset järjestelmien tarjoamien palvelujen suhteen ovat olleet varsin yhteneviä. Kun markkinat ovat aikaa sitten saturoituneet, järjestelmien radikaaliin modernisointiin ei ole ollut pakottavaa tarvetta ja sovellusten käyttöikä on venynyt hyvin pitkäksi.
Jo nyt esimerkiksi Ex Libris, OCLC ja Serials Solutions kutsuvat uusia järjestelmiään palvelualustoiksi, mutta on makuasia missä määrin nämä järjestelmät tuon nimityksen nykyisessä muodossaan ansaitsevat. Jos lähdemme siitä että markkinointi ei paisuttele, palvelualustasovelluksissa on edelleen huomattavia toiminnallisia eroja eikä kirjastosektorilla vallitse yksimielisyyttä siitä, mitkä piirteet ovat välttämättömiä ja millaiset toimintaperiaatteet suotavia. Palvelualustoina markkinoidaan sekä kokonaan uusia järjestelmiä että perinteisistä kirjastojärjestelmistä päivitettyjä sovelluksia. 5-10 vuoden päästä tilanne lienee selkeytynyt, mutta tällä hetkellä on pitkälti makuasia, onko jokin sovellus palvelualusta tai perinteinen kirjastojärjestelmä.
Metatiedostaan palvelualusta tunnetaan
On mahdotonta luetella niitä elektronisten aineistojen hallinnointiin liittyviä ominaisuuksia, joita palvelualustassa vähintään pitäisi olla. Helpompaa on aloittaa siitä olettamasta, että kirjastojärjestelmien ja palvelualustojen tärkeimmät erot liittyvät metatietoihin. Sekä metatietojen rakenne (syntaksi) että sisältö (semantiikka) muuttuvat palvelualustoissa radikaalisti nykyisestä.
Perinteisissä kirjastojärjestelmissä kirjastojen metatiedot ovat semanttisen webin terminologiaa käyttäen siilossa, ja vankasti. 1960-luvulla kehitetty omintakeinen MARC-tietorakenne toimii edelleen hyvin kirjastojen välisessä tiedonsiirrossa, mutta se vaikeuttaa metatietojen siirtoa muihin organisaatioihin sekä kirjastojen metatietojen tarjoamista verkossa avoimena datana. Nykyisillä teknisillä ratkaisuilla kirjastot eivät hevin pääse osaksi semanttista Webiä, mikä kuitenkin on meidän tavoitteemme.
Perinteiset kirjastojärjestelmät kuten Voyager ja Aleph on alun perin rakennettu MARC-formaatin ympärille. Niihin voi olla vaikea lisätä jonkin muun formaatin sisäistä tukea. Usean formaatin tuki – joka on tulevissa järjestelmissämme välttämättömyys – edellyttää sitä että sovelluksessa on sisäinen ja laajennettavissa oleva metatietomääritys, jonka pohjalta on mahdollista tuottaa tietueita eri formaateissa.
Moniformaattitukea tarvitaan koska nykyisen MARC 21 -formaattimme [3] lähtölaskenta on alkanut. Formaatista vastaava Kongressin kirjasto ilmoitti lokakuussa 2011 käynnistäneensä BIBFRAME-hankkeen [4] , jonka tavoitteena on semanttisen Webin avoimen linkitetyn datan ideaalien mukaisen uuden metatietoformaatin kehittäminen. Projekti ei alkanut hetkeäkään liian aikaisin: semanttiseen webiin liittyviä kokeiluja oli tehty jo useissa kirjastoissa. Esimerkiksi British Libraryllä, Deutsche Nationalbibliothekilla ja Bibliotheque Nationale de Francella oli jo tuolloin ollut kokeiluprojekteja, minkä vuoksi pääsivät mukaan BIBFRAME-hankkeeseen Early implementers -statuksella.
ALA:ssa BIBFRAMEa esiteltiin useammissakin sessioissa. Mitään radikaalia uutta ei tullut ilmi ja esityksistä oli vaikea päätellä sitä, miten valmis koko projekti on. Tätä kirjoitettaessa (marraskuu 2013) BIBFRAME-hanke on yhä kesken emmekä tiedä milloin uusi formaatti valmistuu. Valitettavasti monia periaatekysymyksiäkin on auki, kuten osakohteiden ja nidetietojen käsittelytapa. Mutta perustavoitteena on edelleen MARC 21:n korvaaminen oleellisesti modernimmalla formaatilla.
Yksi hankkeen reunaehdoista on, että MARC-muotoinen metatieto on voitava jäännöksettömästi muuntaa uuteen muottiin ja jälleen takaisin. Tämä ja vain tämä mahdollistaa pitkän siirtymäkauden, jonka aikana on mahdollista käyttää rinnan uutta ja vanhaa formaattia tukevia kirjastojärjestelmiä. Koska kaikkien integroitujen kirjastojärjestelmien modernisointi on iso urakka, tästä siirtymäkaudesta tulee pitkä. Ja koko tämän siirtymäkauden ajan olemme tilanteessa jossa kirjastojärjestelmän on mahdollistettava perinteinen luettelointi joko BIBFRAME- tai MARC 21 -muodossa, ja – toivon mukaan – metatietojen poiminta ja sisäänvienti muissakin formaateissa.
BIBFRAME:n ja MARC 21:n semanttinen yhteismitallisuus luo hyvät edellytykset sille, että palvelualustat voivat tukea molempia formaatteja samanaikaisesti. Mutta uuden formaatin natiivituen lisääminen voi olla vaikeaa, jos MARC on ikään kuin kovakoodattu järjestelmän sisään. BIBFRAMEn kannalta on huono merkki, että useimmat kirjastojärjestelmätoimittajat eivät vaikuta olevan siitä kiinnostuneita – poikkeuksena OCLC ja VTLS, joiden nykyiset sovellukset kykenevät moniformaattitukeen. VTLS esitteli ALA:ssa Virtua-sovelluksestaan BIBFRAME-formaatin nykyistä keskeneräistä versiota tukevan demon, jonka laatimiseen ei tiettävästi mennyt ylen paljoa aikaa, kiitos järjestelmän sisäisen tietomallin.
Entä jos BIBFRAME-hanke ei onnistuisikaan, tai uusi formaatti ei valmistuttuaankaan korvaisi MARC 21:stä? Mitään välitöntä katastrofia tästä ei syntyisi, koska kirjastojen välinen tietueiden vaihto voisi edelleen nojata MARC-formaattiin. Metatietojen siirtoon sektorirajojen yli kehitettäisiin BIBFRAMEa edeltäneiden projektien tapaan hankekohtaisia mutta semanttisesti varsin yhteismitallisia XML-skeemoja, joista jokin tai jotkut voisivat vakiintua yleiseen käyttöön. Pahiten BIBFRAME-hankkeen ongelmat heijastuvat Kongressin kirjaston statukseen; se on vuosikymmenet hallinnut kirjastojen formaattikenttää suvereenisti, mutta BIBFRAMEn luonti ei ole sujunut yhtä kivuttomasti kuin MARCin kehitys. Mutta pitää muistaa että MARCin ensimmäisessä versiossa oli 20 kenttää ja parisen sataa tietoelementtiä, kun MARC 21 on joka suhteessa kymmenen kertaa isompi.
Hallinnollisesta metatiedosta
Lisähaasteita palvelualustat saavat siitä, että MARC-formaatin perinteinen kuvaileva metatieto ei niille riitä. Elektronisten aineiston hallinnointiin tarvitaan hallinnollista metatietoa eli esimerkiksi tietoa dokumenttien käyttöoikeuksista tai tiedostojen teknisistä ominaisuuksista. MARC 21:ssä on toki myös hallinnollista metatietoa, mutta ei alkuunkaan riittävästi. Kongressin kirjasto ylläpitää MARCin rinnalla useita hallinnollisen metatiedon formaatteja, kuten kuvatiedostojen teknisen metatiedon MIX-formaattia [5] tai pitkäaikaissäilytyksen metatiedon PREMISiä [6] , jota kirjasto ei kutsu formaatiksi vaan data dictionaryksi.
Koska palvelualustojen pitää hallita kuvailevien ja hallinnollisten metatietojen ohella myös elektroniset dokumentit, ei riitä että palvelualusta tuottaa ja ottaa vastaan vaihtomuotoisia tietueita. Kuvailevan ja hallinnollisen metatiedon ohella järjestelmien on pystyttävä vaihtamaan myös elektronisia aineistoja. Suomessa tämän toiminnan reunaehdot on asettanut KDK-hanke, joka edellyttää kirjastojen, arkistojen ja museoiden taustajärjestelmien tukevan METS-standardia.
Esimerkiksi Kansalliskirjaston digitointiprosessin lopputulos on METS-säiliö eli XML-tiedosto, johon ”upotetaan” KDK:n edellyttämät hallinnolliset metatiedot, kuvailevaa metatietoa sekä rakenteellisena metatietona linkit tiedostoihin joista kuvailtu aineisto koostuu. Aineisto kuvailuineen voidaan lähettää esimerkiksi ZIP-pakettina KDK:n PAS-järjestelmään.
Pitkäaikaissäilytys teoriasta käytäntöön
Vielä vuoden 2008 ALA:ssa elektronisten aineistojen pitkäaikaissäilytyksestä puhuttiin vähän ja etupäässä teoreettisesti. Viisi vuotta myöhemmin aihepiiriä käsitteleviä sessioita oli enemmän, ja esitykset olivat paljon käytännönläheisempiä. Yhdysvalloissa on viime vuosina investoitu pitkäaikaissäilytykseen paljon, ja se näkyy.
Digital Conversion Interest Groupin tapaamisessa [7] esiteltiin muutamia digitointihankkeita ja sitä, miten ne olivat ottaneet pitkäaikaissäilytyksen huomioon. ALA:lla on myös Digital Preservation Interest Group, jonka vuoden 2012 tapaamisessa [8] keskusteltiin esimerkiksi Webin arkistoinnista. ALAa merkittävämpi toimija on kuitenkin Kongressin kirjasto, joka on koordinoi National Digital Stewardship Alliance -yhteenliittymää [9] ja useita muita kansallisia ja kansainvälisiä pitkäaikaissäilytykseen keskittyviä yhteisöjä, joissa on yhteensä yli 300 koti- ja ulkomaista kumppania.
NDSA:n toimenkuva on seuraava:
Members collaborate to preserve access to our national digital heritage. The NDSA accomplishes its goals through working groups with strategic direction from the Coordinating Committee and support from the Secretariat.
The NDSA has established five Working Groups focusing on the following areas of digital stewardship: Content; Standards and Practices; Infrastructure; Innovation; and Outreach.
NDSA on käytännönläheinen ryhmä, joka on selvittänyt esimerkiksi paikkatiedon säilyttämistä ja tutkii parhaillaan kansallisella tasolla verkon arkistointikäytänteitä. Suomessa KDK-hankkeella on ollut samantapainen kokoava rooli Suomessa kuin NDSA:lla Yhdysvalloissa. USA:ssa keskitetty ohjaus ei voi olla yhtä voimallista kuin Suomessa, mutta yhteistyö on voimaa myös Atlantin tuolla puolen. Tästä kertoo esimerkiksi se, että NDSA:n työkalupakissa [10] on 44 ilmaisohjelmaa.
NDSA:n toimintaa esiteltiin yhdessä ALA:n sessiossa. Ryhmässä on pohdittu sekä periaatteellisia asioita kuten pitkäaikaissäilytyksen eri tasoja [11] että käytännön kysymyksiä. Hyvä esimerkki jälkimmäisiin liittyvästä työstä on POWWR-hanke [12] , joka tutkii sitä miten pienet ja keskisuuret organisaatiot voisivat päästä pitkäaikaissäilytyksessä teoriasta käytäntöön. Projekti analysoi pitkäaikaissäilytyksessä käytettäviä sovelluksia [13] ; kattavasti analysoidaan Archivematica, Curator’s Workbench, DuraCloud, Internet Archive ja MetaArchive -ohjelmistot. Testaus päättyy helmikuussa 2014 ja raportti pyritään saamaan valmiiksi vuoden 2014 loppuun mennessä.
Avoin lähdekoodi – kirjastojen tulevaisuus?
Perinteiset integroidut kirjastojärjestelmät ovat edelleen etupäässä kaupallisia sovelluksia. Mutta monet elektronisten aineistojen hallinnointiin tarkoitetut sovellukset ovat avoimen lähdekoodin sovelluksia. Hyviä esimerkkejä ovat kaikki edellisessä kappaleessa mainitut järjestelmät sekä suosituimmat julkaisuarkistosovellukset DSpace ja Fedora.
On vaikea antaa mitään yksittäistä syytä, miksi kirjastojärjestelmätoimittajat eivät saaneet kunnon jalansijaa julkaisuarkistosovellusmarkkinoista. Osaamisen puute ja investointien vähäisyys hidastivat menoa ensi alkuun, ja sen jälkeen kun tarjolle tuli avoimen lähdekoodin järjestelmiä joilla oli vahva kehittäjäyhteisö, peli oli menetetty. Luotettavia tietoja kaupallisten toimittajien markkinaosuuksista ei ole käytettävissä, mutta jos esimerkiksi DigiToolia markkinoidaan sillä että Luxembourgin kansalliskirjasto otti sen käyttöön 2009 [14] , ohjelmiston käyttäjäkunta on tuskin laajentunut kovin nopeasti viime aikoina.
Pystyvätkö kirjastojärjestelmätoimittajat ”kaappaamaan” elektronisten aineistojen hallinnoinnin itselleen palvelualustasovellusten avulla? Ja ulottuuko palvelualustojen kate jatkossa myös esimerkiksi elektronisten aineistojen pitkäaikaissäilytykseen?
Monestakin syystä todennäköinen kehityskulku on päinvastainen, eli se että kaupallisten järjestelmien elintila kaventuu nykyisestä.
Avoimen lähdekoodin kirjastojärjestelmät KOHA (http://www.koha.org/) ja Evergreen (http://evergreen-ils.org/) eivät ole soveltuneet hyvin esimerkiksi suurille tieteellisille kirjastoille. Niitä varten on kehitteillä Mellon Foundationin rahoituksella KUALI OLE -sovellus (https://www.kuali.org/ole), jota esiteltiin ALA:ssa suurelle ja innostuneelle kuulijakunnalle. Kehittämishankkeen alun loppu on käsillä: ohjelmiston versio 1.0 on valmistunut 4.11.2013 [15] . Projekti jatkuu: versio 1.5, jossa on paljon uusia ominaisuuksia, valmistuu 2014. Chicagon yliopiston kirjasto ja kaksi muuta kirjastoa aikovat ottaa OLE:n tuotantoon vuonna 2014, ja vuonna 2015 jonossa on jo nyt kuusi kirjastoa. OLE:lla korvataan vanhentuneita kaupallisia kirjastojärjestelmiä. (toim.huom. Kuali OLEsta tarkemmin Petteri Kivimäen artikkelissa tässä samassa numerossa)
Jos haluaa vaikuttaa Kuali-säätiön puitteissa tapahtuvaan OLE:n kehitykseen, täytyy liittyä säätiön jäseneksi ja lisäksi OLE:n kehityskumppaniksi. Kumpikin maksaa. Mutta mikään ei estä ottamasta vaikka tänään saatavilla olevaa koodia, ja kehittää sitä itse eteenpäin haluamaansa suuntaan omin nokkineen tai mukaan haluavien kumppanien kanssa. Se maksaa ”vain” työtä. Kualin tapauksessa maksuilla ostetaan päätösvaltaa sekä työtä.
Avoimen lähdekoodin sovelluksilla on merkittäviä etuja. Koska järjestelmän lähdekoodi on vapaasti käytettävissä, OLE voidaan helposti liittää muihin sovelluksiin. Toki myös kaupalliset järjestelmätoimittajat voivat tarjota rajapintoja tuotteisiinsa, mutta mahdollisuus ”kurkata konepellin alle” ja varmistaa tällä tavoin ohjelmistojen saumaton yhteismitallisuus houkuttelee enemmän kuin rajapinta jonka toiminta ja dokumentaatio voivat olla puutteellisia ja joiden muuttaminen on yrityksen tahdosta kiinni.
Ohjelmistojen välisten rajapintojen merkitys on Suomessa tullut vahvasti esille viimeistään KDK-hankkeen aikana. Jos Finna-rajapintojen rakentaminen on ollut aika ajoin haasteellista, ja PAS-järjestelmän käyttöönoton myötä vaikeuskerroin kasvaa. Olipa palvelualustojärjestelmien kate maailmalla mikä hyvänsä, Suomessa muistiorganisaatioiden yhteinen käyttöliittymä on jatkossakin Finna, ja pitkäaikaissäilytykseen tullaan käyttämään muistiorganisaatioiden yhteistä, keskitetysti ylläpidettyä sovellusta.
Lopuksi
ALA:n vuosikokouksessa järjestetään niin sanottu Big heads -tapaaminen [16] , jossa suurten tieteellisten kirjastojen IT-johtajat kertovat näkemyksiään tulevaisuudesta. Vuoden 2013 kokouksen parasta antia oli OCLC:n Lorcan Dempseyn esitys kirjastoluetteloiden tulevaisuudesta, joka pohjautui joulukuussa 2012 julkaistuun artikkeliin Educause review -lehdessä [17] . Dempsey tiivisti näkemyksensä neljään teesiin:
1. Discovery happens elsewhere (and we cannot do much about it)
Increasing percentage of information searching is done in Google, Zotero, Mendeley, LibraryThing, YouTube, etc. Less value put on the library’s traditional value adding role. It is important to connect library resources to these new popular services. Syndication of metadata, links and services will promote us. Optimization of search engines so that library metadata is promoted is important.2. Outside in versus inside out
Our core interest should be unique content; concentrating on non-unique materials such as popular books may not be the best approach. Libraries should concentrate on local technical reports, and other content which is to be found from institutional repositories, special collections, research and learning materials, research data etc. This way formerly local information can be delivered from inside out. Outside in we have seen increase of licensed digital contents.3. From collection to whole library
Libraries have to extend the scope of their catalogues. A good example of this trend is the web site of the UMI library (http://www.lib.umich.edu/). There default search covers everything the library is holding including the OPAC and a lot more (collections, periodicals, full text index the library’s web site). This is more useful to the library customers than providing them just bibliographic data.4. Remodeling of our bibliographic data
We need to describe works, people and institutions and make links between them in such a form that they can then be re-used not only by ourselves but also by others. OCLC VIAF & ISNI are part of this process. Providing links from e.g. names to Wikipedia (in multiple languages, currently just English provided) is one of OCLC’s key aims. Schema.org usage, linked data and BIBFRAME enable the libraries to provide structured library metadata to Google+ and other popular services in the Web.
Nämä näkemykset eivät ole uusia; esimerkiksi erikoisaineistojen kuvailun tärkeys nousi esille jo Kongressin kirjaston BIBFRAME-hanketta edeltäneessä selvityksessä. Mutta yhteen koottuna Dempseyn teesit muistuttavat meitä siitä, että pelkkä järjestelmien modernisointi ei riitä. Meidän on myös muutettava prioriteettejamme ja toimintatapojamme, jos haluamme palvella asiakkaitamme tehokkaasti tulevaisuudessakin.
Lähteet:
[1] http://presentations.ala.org/
[2] http://dx.doi.org/10.3789/isqv24n4.2012
[3] http://www.loc.gov/marc/
[4] http://bibframe.org/
[5] http://www.loc.gov/standards/mix//
[6] http://www.loc.gov/standards/premis/
[7] http://ala13.ala.org/node/10856
[8] http://connect.ala.org/node/182791
[9] http://www.digitalpreservation.gov/ndsa/
[10] http://www.digitalpreservation.gov/tools/
[11] http://www.digitalpreservation.gov/ndsa/working_groups/documents/NDSA_Levels_Archiving_2013.pdf
[12] http://digitalpowrr.niu.edu/
[13] http://digitalpowrr.niu.edu/tool-grid/
[14] http://www.exlibrisgroup.com/category/DigiToolOverview
[15] http://www.kuali.org/download#ole
[16] http://www.ala.org/alcts/mgrps/ig/ats-dgbh
Kirjoittajan yhteystiedot
Juha Hakala, erityisasiantuntija
Kansalliskirjasto
PL 26 (teollisuuskatu 23)
00014 HELSINGIN YLIOPISTO
Sähköposti: juha.hakala[at]helsinki.fi
Leave a Reply