Uusinta uutta avoimista julkaisuarkistoista ja niiden ympäriltä

Jyrki Ilva
Kansalliskirjasto

Tämän artikkelin pysyvä osoite on: http://urn.fi/URN:NBN:fi-fe201312167644

 

Kanadan itärannikolla sijaitseva Prinssi Edwardin saari tunnetaan Suomessa varmasti parhaiten Lucy Maud Montgomeryn klassisista tyttökirjoista. Saaren hallinnollinen keskus Charlottetown on asukasluvultaan kutakuinkin Järvenpään kokoinen pikkukaupunki, joka tarjosi heinäkuussa aurinkoiset ja leppoisat puitteet kahdeksatta kertaa järjestetylle julkaisuarkistoalan ihmisten kokoontumiselle, Open Repositories 2013 -konferenssille.

Julkaisuarkistopiireissä Prince Edward Island tunnetaan myös Fedoran Drupal-pohjaisen Islandora-käyttöliittymän ja Islandoraa hyödyntäviä palveluita tarjoavan Discovery Garden -firman kotipaikkana. Islandoran puuhamies, University of Prince Edward Islandin kirjaston johtaja Mark Leggott olikin keskeisessä roolissa konferenssin järjestelyissä. Open Repositories -konferenssin saaminen saarelle oli paikallisille selkeästi iso juttu, ja tapahtuma näkyi konferenssihotellin lisäksi sekä muualla kaupungilla että jopa tervetuliaistoivotuksena paikallisella lentokentällä.

Koska Open Repositories järjestetään ensi vuonna täällä Helsingissä, mukana oli itsestään selvästi myös Kansalliskirjaston joukkue, jonka muodostivat tällä kertaa Esa-Pekka Keskitalo ja minä.

 

Tutkimusdataa ja -etiikkaa

Konferenssin pääteema oli tänä vuonna Use, Reuse, Reproduce, eli monet esityksistä liittyivät datan ja metadatan uusiokäyttöön. Open Repositories -konferensseille on tyypillistä, että suurin osa ohjelmasta on yhteisön itsensä tuottamaa. Ulkopuolisilta pyydettyjä keynote-puheenvuoroja oli tällä kertaa kaksi.

Ensimmäisenä esiintynyt Columbia-yliopiston professori Victoria Stodden on profiloitunut mm. Run My Code -palvelun perustajana. Stoddenin esityksen lähtökohtana oli tietotekniikan ja laskennan keskeinen rooli suuressa osassa nykyistä tutkimusta: jos saavutetut tutkimustulokset ovat sidoksissa tiettyihin ohjelmistoihin ja suuri osa tehdyistä oletuksista ja metodisista valinnoista on koodattu ohjelmistojen sisään, miten voidaan taata tutkimuksen ja sen tulosten toistettavuus?

Stodden korosti sitä, että laskennallisessa tutkimuksessa tieteellinen julkaisu on ainoastaan varsinaisen tutkimustyön mainos. Itse tutkimus koostuu ohjeista ja datasta joiden pohjalta tulokset on tuotettu. Tieteen avoimuus edellyttää sitä, että tutkimuksen tulokset ovat todennettavissa ja tuotettavissa uudelleen. Tätä varten tarvitaan infrastruktuureja, jotka säilyttävät sekä datan että sen käsittelyyn käytetyn koodin eri versiot, joissa data ja koodi on linkitetty julkaistuun artikkeliin ja joista ne ovat pysyvästi löydettävissä. Käytännössä tähän liittyy tietysti paljon haasteita, joihin liittyviä ratkaisumalleja Stodden kävi esityksessään läpi.

Aikanaan myös Hankenilla 2004 järjestetyssä Suomen ensimmäisessä open access -konferenssissa esiintynyt Montrealin yliopiston professori Jean-Claude Guédon kritisoi omassa puheenvuorossaan tieteellisessä tutkimuksessa yleistynyttä kilpailuhenkeä, johon tutkijoita kannustetaan monin eri tavoin. Hänen mukaansa tilanne on karannut käsistä ja on johtanut monenlaisiin väärinkäytöksiin ja epäkohtiin, joiden vertailukohdaksi hän nosti doping-vetoisen huippu-urheilun. Erilaisilla indikaattoreilla (mm. Impact Factor) ja ranking-listoilla ryyditettynä tieteestä on tullut huippu-urheilun kaltaista verissä päin ja hinnalla millä hyvänsä käytävää kamppailua globaaleista kärkitiloista, joita on tarjolla vain harvoille ja valituille.

Guédonin mukaan tällainen jatkuva erinomaisuuden tavoittelu ei ole kestävällä pohjalla eikä tieteen omien intressien mukaista, ja hänen mukaansa erinomaisuuden (excellence) sijaan olisi hedelmällisempää keskittyä puhumaan tutkimuksen laadusta (quality). Guédon esitti toiveen, että julkaisuarkistot voisivat palauttaa edes jonkin verran järkeä takaisin tieteellisen julkaisemisen käytäntöihin. Keskeisen roolin saavuttaminen ei kuitenkaan tapahdu pelkkien ylhäältä päin säädettyjen tallennusvelvoitteiden voimin, vaan julkaisuarkistojen pitää pystyä kehittymään tutkijoiden kannalta aidosti hyödyllisiksi ja välttämättömiksi palveluiksi.

 

Julkaisuarkistojen tulevaisuus

Osallistuin tällä kertaa vain yhteen maanantaina järjestetyn esikonfenssin workshopiin, jonka aiheena oli vaatimattomasti julkaisuarkistojen tulevaisuus. JISC:in vetämän workshopin taustamateriaalina oli useita johtavan open access -maan Iso-Britannian esimerkkitapauksia, ja me jakauduimme pöytäkuntiin, jotka saivat tehtäväkseen pohtia tulevaisuuden näkymiä.

Päädyin onnekkaasti pöytään, jossa oli pari ennestään tuttua ihmistä ja muutama muu joiden kanssa juttelin lisää myöhemmin konferenssin aikana. Meille annettu tehtävä oli ihan liian kunnianhimoinen käytettävissä olleeseen aikaan nähden (julkaisuarkistojen tulevaisuus vajaassa tunnissa!?), mutta keskustelu muiden maiden ihmisten kanssa oli antoisaa, ja yllättävän hyvin löysimme yhteisen sävelen. Aina yhtä aikaansaava @miren Bram Luyten kyhäsi verkosta löytämällään työkalulla keskustelun pohjalta nopeasti hienon mindmapin, joka päihitti muiden ryhmien fläppitaulut 6-0.

Julkaisuarkistojen ja open accessin tulevaisuudesta on käyty paljon vääntöä kesästä 2012 lähtien. Open access -keskustelun panokset ovat nousseet merkittävästi sekä brittiläisten kannanottojen (Finchin komitean raportti ja RCUK:n Open Access -politiikka) että USA:n hallinnon julkistaman open access -linjauksen ansiosta. Brittiläisten linjausten on yleisesti tulkittu suosivan kustantajia ja ”kultaista” open accessia. USA:ssa hallinnon asettamia velvoitteita täyttämään on noussut kaksi kilpailevaa toimintamallia, joista toisen (CHORUS) takana ovat pääasiassa kustantajat ja toisen (SHARE) takana kirjastot. CHORUS perustuu kustantajien olemassa olevaan infrastruktuuriin ja pyrkii pitämään avoimet julkaisut kustantajien hallinnassa, SHARE taas rakentuu tutkimusorganisaatioiden omien julkaisuarkistojen varaan. CHORUS on luonnollisesti herättänyt open access -väen keskuudessa runsaasti epäluuloja, mutta on vielä liian aikaista sanoa miten kisassa käy.

Elämme siis mielenkiintoisia aikoja. Kansallisia avointa julkaisemista ja avointa tutkimusdataa koskevia linjauksia pohditaan parhaillaan myös Suomessa, sillä TTA-hankkeen (ks. Esa-Pekka Keskitalon artikkeli tässä samassa lehdessä) puitteissa toiminut työryhmä sai marraskuussa valmiiksi aihetta käsittelevän muistion, josta opetus- ja kulttuuriministeriö järjesti marras-joulukuun vaihteessa pikaisen lausuntokierroksen. Toivottavasti seurauksena on toimenpiteitä, sillä open access -politiikan tasolla Suomessa on pari-kolme viime vuotta oltu koko lailla pysähtyneessä tilanteessa, samaan aikaan kun maailmalla keskustelu ja kehitys ovat menneet nopeasti eteenpäin.

 

Julkaisuarkisto ja CRIS

Toinen kiivasta keskustelua herättävä kysymys on julkaisuarkistojen suhde tutkimustietojärjestelmiin (CRIS). Euroopassa alaa ovat vallanneet kaupalliset CRIS-sovellukset (Pure, Converis, Sympletic Elements) kun taas USA:ssa isot yliopistot näyttäisivät ryhmittyvän avoimen lähdekoodin ja semanttisten yhteyksien varaan rakennetun VIVO-konseptin ympärille.

Lähtökohdat ovat Atlantin eri puolilla jossain määrin erilaisia: Euroopassa on lähdetty liikkeelle yliopistojen oman ja kansallisen tason keskitetyn tutkimushallinnon tarpeista, ja tietojen välittämiseen on luotu myös yhteinen tallennusformaatti (EuroCris-järjestön ylläpitämä CERIF). USA:ssa on päästy vauhtiin hitaammin, sillä siellä ei ole ollut aivan samanlaisia organisaatioiden sisäisiä tai organisaatiorajat ylittäviä hallinnollisia paineita tiedonkeruuseen, vaan tavoitteena on ollut enemmän tutkimusta koskevan tiedon löydettävyyden parantaminen. Osin myöhemmästä aloitusajankohdasta johtuen USA:ssa on lähdetty jo alun pitäen avoimen lähdekoodin ratkaisujen ja semanttisen teknologian suuntaan.

Julkaisuarkisto-ohjelmien ja CRIS-sovellusten suhde on hankala kysymys: aika monella eurooppalaisella organisaatiolla on molemmat, mutta CRIS-puolella on myös ollut pyrkimyksiä kehittää järjestelmiä siten, että erilliset julkaisuarkistot kävisivät tarpeettomiksi. Ja toisaalta, julkaisuarkistoja on pyritty laajentamaan vaihtelevalla menestyksellä CRIS-suuntaan – hyvänä esimerkkinä Hong Kongin yliopiston tarpeisiin rakennettu DSpace-CRIS. Järjestelmien lähtökohdat ja käyttötarkoitukset ovat kuitenkin sen verran erilaisia, ettei yhden kaikkia intressejä tyydyttävän järjestelmän rakentaminen ole aivan yksinkertainen tehtävä. Nähtäväksi jää myös se, miten hyvin julkaisuarkistot, CRIS-sovellukset ja VIVO saadaan limittymään toisiinsa.

Kaupallisten CRIS-sovellusten tulevaisuus on toki arvoituksellinen myös sen vuoksi, että Pure-ohjelmiston kehittänyt tanskalainen Atira fuusioitui viime vuonna Elsevierin osaksi, ja Converista kehittänyt saksalainen Avedas taas siirtyi muutama viikko sitten Thomson Reutersin omistukseen. Ohjelmistojen kehittämiseen vaikuttavat jatkossa siis asiakkaiden tarpeiden lisäksi väistämättä myös näiden julkaisu- ja viittaustietojen kansainvälisiä markkinoita hallitsevien suuryritysten laajemmat intressit.

 

ResourceSync, ORCID ja Altmetrics

Muita tämän vuoden kuumia aiheita olivat etenkin ResourceSync, ORCID ja Altmetrics, joista kaksi ensimmäistä oli toki ollut esillä jo viime vuonna Edinburgissa. Nyt oltiin kuitenkin edetty teoriasta käytännön sovellusten rakentamiseen, ja innostus oli sen mukaista.

Jaoimme Esa-Pekan kanssa tehtäviä sen verran, että hän osallistui maanantain ResourceSync-workshopiin, joka kuulemma olikin oikein inspiroiva. ResourceSynciä on ollut ideoimassa Herbert Van de Sompel, Carl Lagoze ja monta muuta kirjastoteknologian parissa puuhasteleville ennestään tuttua nimeä, ja julkaisuarkistoihmisille Simeon Warner esitteli sen ”teknologiana joka korvaa OAI-PMH:n”. OAI-PMH on jäänyt käytännössä vain kirjastomaailman sisäiseksi rajapinnaksi, mutta nyt tavoitteena on rakentaa yleisemmin tunnetun teknologisen ratkaisun (Sitemaps) varaan ja päästä kirjastomaailmaa laajemmille vesille. ResourceSyncistä kuullaan meilläkin varmasti vielä lisää.

ResourceSyncistä oli jo olemassa alustavia käytännön sovelluksia, ja sama koskee myös ORCID-tunnistejärjestelmää, joka avattiin yleiseen käyttöön syksyllä 2012. Monia kovasti askarruttanut ORCID- ja ISNI-tunnistejärjestelmien työnjaon ja yhteistyön toteutuminen käytännössä on julkilausutuista hyvistä aikomuksista huolimatta edelleen jossain määrin hämärän peitossa. Syksyllä Suomessa vieraillut ORCID:in tekninen johtaja Laura Paglione esitti asian niin, että pyrkimyksenä on päästä pitemmällä tähtäimellä yhteen tunnisteeseen siten, että annetut päällekkäiset tunnisteet voidaan yhdistää toisiinsa, ja tekijän itse hallinnoima ORCID voisi mahdollisesti käytännössä korvata hänelle annetun ISNI:in.

Tutkijoiden tunnistamiseen liittyviä vaihtoehtoja on selvitetty opetus- ja kulttuuriministeriön aloitteesta myös Suomessa, mutta maailmalla ollaan monin paikoin jo askelta tai paria pidemmällä. Sekä yliopistojen omia että monin paikoin myös kansallisia tutkijan tunnistamiseen tarkoitettuja järjestelmiä suunnitellaan yleensä ORCID:in infrastruktuurin varaan.

Käytännön sovellusten tekeminen on monilta osin vielä kesken, sillä prosessit vaativat huolellista suunnittelua. Mitenkään ylivoimaista tämä ei kuitenkaan ole. Esim. OR2013:n Developer Challenge -kilpailussa yksi joukkue kehitti DSpaceen alustavan ORCID-kytkennän, mikä ymmärtääkseni vaati vain muutaman tunnin työn. Teknisistä ratkaisuista on toki vielä pitkä matka toimiviin prosesseihin.

Altmerics puolestaan viittaa tieteellisten julkaisujen vaikuttavuuden mittaamista varten kehitettyihin uusiin välineisiin. Altmetricsin ideana on koota perinteisten viittausanalyysien ja julkaisukanavakohtaisten tunnuslukujen rinnalle numerotietoja mm. kunkin artikkelin latauskerroista ja sen sosiaalisessa mediassa (esim. Twitter, Mendeley, jne.) saamasta huomiosta. Tätä kautta on mahdollista kerätä huomattavasti perinteisiä keinoja nopeammin tietoja siitä, mitkä artikkelit herättävät tiedeyhteisön huomion ja mistä aiheista sen keskuudessa kulloinkin puhutaan. Esim. Altmetric-firman kokoaman datan avulla automaattisesti päivittyvien tunnuslukujen integroiminen kustantajan verkkopalveluun tai julkaisuarkistoon on helppoa ainakin siinä tapauksessa, että artikkeleilla on selkeät tunnistetiedot (esim. DOI).

 

Julkaisuarkisto-ohjelmistot

Varsinaisen konferenssin lisäksi Open Repositoriesin ohjelmaan ovat perinteisesti kuuluneet keskeisten julkaisuarkisto-ohjelmistojen käyttäjäryhmät, jotka ovat formaatiltaan varsin samanlaisia itse pääkonferenssin kanssa. Näitä keskeisiä ohjelmistoja ovat olleet yhtä lailla perinteisesti DSpace, Fedora ja EPrints; nähtäväksi jää muuttuuko tämä kolmijako jossain vaiheessa uusien ohjelmistojen myötä tai markkinatilanteen muuttuessa. Juttelin posterisessiossa CERN:in kehittämään Invenio-ohjelmistoon pohjaavia ratkaisuja tarjoavan TIND Technologies -firman norjalaisnuorukaisten kanssa, ja ainakin sillä suunnalla tuntui olevan voimakasta pyrkimystä eteenpäin.

Nyt mentiin kuitenkin perinteisen mallin mukaan. DSpace- ja Fedora-ohjelmistojen sekä DuraCloud-pilvipalvelun taustaorganisaatio DuraSpace on laajentamassa repertuaariaan, sillä myös VIVO on siirtymässä uutena projektina sen siipien suojiin. DuraSpacella on perinteisesti ollut haasteita toimintansa rahoittamisessa, ja yhtenä ratkaisuna se on päättänyt ryhtyä tarjoamaan myös pilvipalveluiden varaan rakennettua DSpace Direct -nimistä maksullista julkaisuarkistoympäristöä asiakasorganisaatioille. Palvelun ideana on ilmeisesti pysyä mahdollisimman pitkälle perus-DSpacessa, eli vaativammat asiakkaat jäävät edelleen muille toimijoille.

Yllättävin DuraSpace-uutinen taisi kuitenkin olla se, että Fedoran rahoitustilanne on parantunut dramaattisesti viime vuodesta, sillä isot amerikkalaisyliopistot ovat lisänneet huomattavasti sille antamaansa tukea. DSpacen sponsoritulot näyttävät sen sijaan pikemminkin vähenevän, eli tilanne on kääntymässä päälaelleen aiempaan verrattuna. Kansalliskirjasto ryhtyi tänä vuonna sponsoroimaan DuraSpacen toimintaa, mutta ihan niin mittavaa tukemme ei tietenkään ole, että tilanne siitä oleellisesti muuttuisi.

Fedoran osalta vaikutelmaksi jäi muutenkin, että vuoden takaisesta ankeaksi koetusta tilanteesta oltiin päästy yhteisvoimin eteenpäin. Ohjelmiston tuotantoprosessia on onnistuttu kehittämään tehokkaammaksi ja ikääntymään päässyttä koodipohjaa virtaviivaistamaan siten että jatkokehitys – ml. työn alla oleva Fedora 4 – on huomattavasti kevyempää (ks. Fedora Roadmap/Building Fedora Futures). Lisääntyneen tuen ansiosta kehitystyöhön on myös mahdollista sijoittaa jatkossa enemmän resursseja.

 

DSpace:n tulevaisuus ja REST-rajapinta

Myös DSpace-ohjelmiston kehitystyölle on kehittäjien ja DSpace Community Advisory Teamin (DCAT) voimin pyritty luomaan yhteistä visiota ja keskipitkän aikavälin (3-5 vuotta) tavoitteita (ks. DSpace 2013 Vision Document). Tim Donohuen mukaan päämääräksi on kirkastunut se, ettei DSpace pyri jatkossa olemaan kaikkea kaikille, vaan sen kehitystyössä keskitytään keskeisiin toiminnallisuuksiin ja rajapintoihin. Ideana on tehdä DSpacesta eräänlainen julkaisuarkistojen WordPress, joka on perustoimintojen osalta helposti käyttöönotettavissa, ja joka tukee mahdollisimman hyvin myös ulkopuolisten toimijoiden kehittämien ja ylläpitämien lisämodulien liittämistä siihen.

Seuraavasta uudesta DSpace-versiosta (4.0) ei Charlottetownissa puhuttu vielä juuri mitään, eli sen kehitystyö ei ollut tuolloin läheskään samassa vaiheessa kuin edellisen version viime kesänä. Kesällä oli lisäksi vielä epäselvää, onko siinä mukana kauan kaivattu REST-rajapinta, joka helpottaisi oleellisesti DSpacen toimintojen kytkemistä muihin järjestelmiin. Erilaisia REST-rajapintoja oli näet kehitetty DSpacea varten jo useita, mutta mitään olemassa olevista ratkaisuista ei pidetty tyydyttävänä.

REST-rajapintaa ja sen käyttötarpeita pohdittiin Charlottetownissa omassa sessiossa, ja halu päästä viimein yhteisiin ratkaisuihin tuntui olevan vahva. Harmi kyllä aikataulut menivät tämän jälkeen jossain määrin ristiin. Janne Pietarilan pari vuotta sitten kehittämän, käytännössä julkistamatta jääneen SimpleREST-pinnan päivitys DSpace 3.0-yhteensopivaksi oli kesällä pääsemässä vauhtiin, joten mainitsin siitä REST-session jälkeen vain lyhyesti session vetäjiin kuuluneelle Peter Dietzille.

Näin jälkeenpäin ajatellen olisi kannattanut olla aktiivisempi, sillä lopputuloksena oli se, että Dietz kirjoitti alkusyksyn aikana kokonaan uuden REST-rajapinnan. Samaan aikaan myös Anis Moubarikin Kansalliskirjastossa tekemä SimpleREST:in jatkokehitys eteni hyvin, ja rajapinta julkistettiin lokakuun alussa Githubissa. DSpaceen 4.0:aan integroidun virallisen rajapinnan osalta olimme kuitenkin liikkeellä liian viime tingassa, ja SimpleREST jäi tässä vaiheessa hyväksi kakkoseksi. SimpleREST:iä kehitetään edelleen, mutta se on jo nyt otettavissa lisämodulina helposti käyttöön, ja se sisältää ainakin toistaiseksi enemmän ominaisuuksia kuin tulevan DSpace-version virallinen rajapinta. SimpleREST on jo nyt tuotantokäytössä mm. TamPubissa.

Käytännössä REST-rajapinnan tai muidenkaan uutuuksien saaminen yleiseen käyttöön vaatii tosin oman aikansa. DSpacen-käyttäjäryhmän osallistujilta kysyttiin näet sitä, kuinka moni oli jo siirtynyt viime syksynä julkaistuun versioperheeseen 3.x, jossa mukaan tuli monta uutta oleellista ominaisuutta. Käsiä nousi vain muutama. Tämä kertoo siitä, että versiopäivitykset ovat usein varsin haastavia projekteja, etenkin jos järjestelmään on tehty paljon räätälöintiä. Myös Kansalliskirjaston ylläpitämissä julkisissa DSpace-instansseissa (Doria, Theseus, Julkari, Jukuri, Tampub, Fenno-Ugrica ja Fragmenta Membranea) päivitys tähän asti käytössä olleesta versiosta 1.7.2 versioon 3.2 alkaa vasta joulun alla ja jatkuu instanssi kerrallaan todennäköisesti helmikuuhun asti. WordPressin tapaiseen ”just works”-tilanteeseen on siis vielä matkaa.

 

Metadata järjestykseen

Toinen kiinnostava DSpace-uutinen liittyi DCAT:in aloitteesta kehiteltyihin DSpacen käyttämää metadataa koskeviin linjauksiin, joiden käytännön soveltamisesta keskusteltiin siitäkin omassa sessiossa. Kuten kaikki DSpacen ja Dublin Core -formaatin kanssa tekemisissä olleet tietävät, läheskään kaikkia esim. opinnäytteisiin tai tieteellisiin artikkeleihin liittyviä oleellisia tietoja ei saa mukaan julkaisujen metadataan laajentamatta perus-DC:n kenttävalikoimaa tavalla tai toisella.

Käytännössä tämä on selkeän ohjeistuksen puuttuessa johtanut melkoiseen sekamelskaan, sillä kenttiä on sovellettu eri puolilla ja eri tilanteissa eri tavoin (mekin olemme totta puhuen melkoisessa ”suutarin lapsilla ei ole kenkiä”-tilanteessa, joka aiheuttaa haasteita mm. Finna-yhteensopivuudelle), ja tavoitteena onkin nyt kurin ja järjestyksen palauttaminen. Kurin ja järjestyksen tiukkuudesta ja käytännön toteutuksesta käytiin vielä keskustelua, mutta perustavoitteena on joka tapauksessa DC-nimiavaruuteen tungettujen ei-standardien kenttien siirtäminen DC:n ulkopuolelle muihin nimiavaruuksiin. Tähän varmasti palataan vielä meilläkin, kunhan suunnitelmat konkretisoituvat käytännöiksi.

 

Kansalliskirjaston prosesseja

Meillä oli konferenssissa myös oma esitys, joka tipahti pääkonferenssista DSpace-käyttäjäryhmään ja sielläkin perjantai-iltapäivän viimeisen session viimeiseksi esitykseksi, eli meillä oli kunnia pitää konferenssin vihoviimeinen esitys noin viidelletoista vielä paikalla olleelle kuulijalle.

Esittelimme Esa-Pekan kanssa Kansalliskirjaston digitoituihin kulttuuriperintöaineistoihin liittyviä haasteita ja niiden kanssa DSpace-ympäristössä tehtyjä ratkaisuja. Käyttämämme kalvot löytyvät Doriasta, ja konferenssiin lähettämämme paperikin on saatavilla verkossa.

 

Helsinki-propagandaa

Edellisenä päivänä pitämällämme ensi vuoden konferenssia mainostaneella Welcome to Helsinki -esityksellä oli sentään huomattavasti enemmän kuulijoita, ja se sai myös Twitterissä ja käytäväpuheissa positiivista palautetta. Olin tosin vähän yllättynyt siitä, miten harvat osallistujat näyttivät tunnistavan Helsingin yliopiston esittelyssä esimerkkinä käyttämämme Linus Torvaldsin naaman – edes siinä vaiheessa kun olin kertonut vihjeenä, että hän oli kehittänyt opiskeluaikanaan oman käyttöjärjestelmän…

Ensi vuonna ollaan siis Helsingissä. Open Repositories 2014 järjestetään 9.-13. kesäkuuta, eli kyseessä on jälleen viiden päivän tapahtuma, jonka järjestelyistä vastaavat Kansalliskirjasto ja Helsingin yliopiston kirjasto. Maanantain esikonferenssi järjestetään Helsingin yliopiston keskustakampuksella ja varsinainen konferenssi Paasitornissa. Paikalle odotetaan noin 350-400 osallistujaa eri puolilta maailmaa.

Konferenssin sisällöstä on tällä kertaa päävastuussa kolmen amerikkalaisen Program Chairin (Tom Cramer, Michael J. Giarlo ja Simeon Warner) muodostama triumviraatti, mutta heidän apunaan on laajempi ohjelmakomitea, jossa on myös suomalaista ja pohjoismaista edustusta. Konferenssin Call for Proposals julkistettiin marraskuun puolivälissä, ja ehdotusten deadline on 3. helmikuuta. Konferenssin pääteema on tällä kertaa Towards Repository Ecosystems, mutta sen alle on ryhmitelty runsaasti alateemoja, joista löytyy monenlaista muutakin kiinnostavaa.

Tähänastisen palautteen perusteella meihin kohdistuu paljon odotuksia ensi vuoden suhteen, ja niiden täyttäminen vaatii luonnollisesti kovasti työtä. Luvassa on toistaiseksi suurin Suomessa järjestetty open access -julkaisemiseen ja kirjastoalan avoimen lähdekoodin ohjelmistoihin keskittyvä tapahtuma, jota ei kannata jättää väliin, jos aihepiiri vain yhtään kiinnostaa!

 

Kirjoittajan yhteystiedot

Jyrki Ilva, tietojärjestelmäasiantuntija
Kansalliskirjasto / Kirjastoverkkopalvelut
PL 26, 00014 HELSINGIN YLIOPISTO
sähköposti: jyrki.ilva[at]helsinki.fi

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.