README honetan programa hau nola konfigutatzen eta exekutatzen den azaltzen da. Adibide bezala 'la_donacion' proiektua hartu da.
- Informazio orokorra
- Erabilitako teknologiak
- Aurrebaldintzak
- YAML fitxategiaren konfigurazioa
- Dependentzien instalazioa
- Programaren exekuzioa
README honetan programa hau nola konfiguratzen eta exekutatzen den azaltzen da. Programa honek parametro batzuk pasatu ostean era automatiko batean datu multzo bat eraldatu eta triple store batera igotzen du. Adibide bezala 'la_donacion' proiektua hartu da.
- Python >= 3.7
- Docker 20.10.7
- GraphDB 10.0.3 Free Edition (deskargatzeko SAKATU HEMEN)
Deskargatutako GraphDB binarioa graphDB/ fitxategiaren barnean egon behar da eta hurrengo formatua jarraitu behar du: graphdb-$edizioa-$bertsioa-dist.zip. Kasu honetan bitarraren izena graphdb-free-10.0.3-dist.zip, beste bat izatekotan, Dockerfile fitxategian parametroak aldatu behar dira.
Programaren exekuzioarekin hasi baino lehen hurrengo aurrebaldintzak betetzen direla kontuan hartuko da:
- GraphDB instantzia bat martxan edukitzea. Honetarako jarraitu Graphdb berak daukan tutoriala.
- Programa exekutatu nahi den terminalean Python interpretatzaile bat instalatuta izatea (gutxienez 3.7 bertsioa).
- Terminalean proiektu hau klonatuta edukitzea, horretarako exekutatu hurrengo komandoak terminalean:
git clone --recurse-submodules https://github.com/mikel-egana-aranguren/TFG-KG-RelacionesClientelares
git submodule update --remote --merge
Behin aurrebaldintza guztiak bete direnean konfigurazioaren hasi ahal da. Horretarako YAML fitxategi bat aurkitzen da doc karpetaren barnean hurrengo parametroekin:
- project_name: Proiektuaren izena.
- workspace: Erabili nahi diren datuen helbide nagusia.
- images: #Lan eremuaren barnean irudiak egongo diren karpeta
- data_source: Erabili beharreko datuen path-a.
- validate: SHACL testen path-a.
- named_graph: Datuak GraphDB barnean egongo diren taldea adierazten duen URIa.
- run: Exekutatu nahi den programaren path-a. Programa hau SPARQL eskaeren bitartez triple_store aldagaian deklaratutako triple storean datuak igotzeko gaitasuna izan behar du.
- metadata_file: Metadatuen path-a.
- delete_graph: Aurretik triple store-an zegoen grafoa ezabatu nahi den ala ez.
- triple_store: Tripleak igo nahi diren triple storearen URLa, ez da beharrezkoa GraphDb instantzia baten URL bat izatea, hau da, SPARQL eskaerak onartzen dituen instantzia baten URIa jarri behar da.
- logs: Programa exekutatzerako orduan sortutako logak non gorde nahi diren path-a.
- rdf_output: Tripleekin bete nahi den fitxategiaren path-a.
la_donacion proiektuaren kasuan hurrengo konfigurazioa jarri da:
la_donacion:
project_name: 'la_donacion'
workspace: ./
images: images
data_source: data/ladonacion.es
validate: graphSource/tests/TestJson2rdf.py
named_graph: http://localhost:8080/
run: procesSource/source/json2rdf.py
metadata_file: metadata.ttl
delete_graph: true
triple_store: http://localhost:7200/repositories/LaDonacion
logs: logs/laDonacion.log
rdf_output: data/ladonacion.es/graphLaDonacion.nt
Esan beharra dago workspace parametroan prozesatu nahi diren datuen helbidea jarri behar da, dagoen helbidea ez du funtzionatuko
Programa exekutatu baino lehen programaren dependentziak instalatu behar dira, horretarako hurrengo komandoak exekutatu behar dira proiektuko fitxategi nagusitik:
pip install -r requirements.txt
pip install -e .
Lehenengo komandoarekin requirements.txt fitxategiaren barnean adierazitako moduluak instalatuko dira. Aldiz, bigarrenean, modulu lokalak instalatzen dira.
Exekuzioa hasi baino lehen SPARQL Endpointaren URIa aldatu behar da, honetarako datu basearen kontra eskaerak egiteko fitxategian eta YASGUI SPARQL Endpointaren fitxategian, uri parametroan, nahi den endpointaren URIa jarri behar da.
GraphDB eta Trifid instantziak eta bisualizaziorako programa martxan jarri behar dira. Lehenenngo eta hirugarren kasuetarako Docker irudi propiak sortu behar dira, aldiz, Trifid instantzia martxan jartzeko docker compose komandoaren bitartez egin behar da, honetarako hurrengo komandoak exekutatu behar dira:
docker build -t graphdb graphDB/
docker build -t bisualizazioa grafoavis/
docker-compose up
Komando guztiak batean batzeko hurrengo komandoa exekutatu:
docker build -t graphdb graphDB/ && docker build -t bisualizazioa grafoavis/ && docker-compose up
Behin hau eginda, programa exekutatu ahal izateko, fitxategi nagusian kokatuta, hurrengo komandoa exekutatu behar da:
python3 procesSource/source/ejecutador.py [sortutako proiektuaren izena]
Adibidearen kasuan komandoa hurrengoa izango litzateke:
python3 procesSource/source/ejecutador.py la_donacion
Sartutako proiektua ez bada existitzen programa berak argitaratuko ditu eskuragarri dauden proiektuen izenak.
Hau egin ostean http://localhost:3000/bisualizazioa atalean sortutako grafoa agertzen da. SPARQL Endpointa ikusteko URIa http://localhost:3000/yasgui da.