Comunitat DSTSC
Publicat a Comunitat DSTSC (https://comunitatdstsc.diba.cat)

Inici > Resum plataforma BI

Resum plataforma BI

Taula de continguts
  • 1. Servidors i versions
  • 2. Eines desenvolupament
  • 3. Conexions a BD
  • 4. Arquitectura d'una solució Pentaho
  • 5. Arquitectura d'una solució Qlik
    • 5.1. Processos extracció
      • 5.1.1. Capa QVDs: Capa 0
      • 5.1.2. Capa QVDs: Capa 1
    • 5.2. Respositori de dades
    • 5.3. Capa Model analític o núvol de dades
  • 6. Capa Presentació
  • 7. Bones práctiques de programació
  • 8. Gestió d'usuaris i permisos

1. Servidors i versions

Qlikview Enterprise Edition Server versió 12.50 

SO: Windows Server 2019 / RAM: 32GB / 8 CPU de 2,60 GHz

Qlikview Extranet Server versió 12.50

SO: Windows Server 2019 / RAM: 32GB / 8 CPU de 2,60 GHz

Qlikview Internet Acces Server versió 12.50

SO: Windows Server 2019 / RAM: 32GB / 8 CPU de 2,60 GHz

 

QlikSense Enterprise Server versió de Maig de 2022

SO: Windows Server 2019 / RAM: 64GB / 8 CPU de 2,60 GHz

Disposem de tres entorns: desenvolupament, test i productiu.

Geoanalytics Server versió Agost 2022

S'utilitzarà la cartografia generada per la pròpia Diputació de Barcelona.

Nprinting versió novembre 2019 

 

Pentaho Server versió 9.2 Community

SO: Windows Server 2016 / RAM: 16GB/ 4 CPU de 2,60 GHz

Pentaho User Console 

S'utilitza per a programa y executar els processos de l'entorn de productiu.

2. Eines desenvolupament

Qlikview Desktop versió 12.50

QlikSense Desktop versió Maig 2022

S'espera que els proveïdors treballin amb llicència pròpia.

Pentaho Data Integration versió 9.2 (versió CE) 

Cal configurar Idioma-locale = es (ES).

 

Aplicacions accés als portal web Qlikview i Qliksense:

L'accés als portals web de Qlikview o Qliksense es fa a través de l'accés restringit de la Diputació (https://dibaaps.diba.cat/vus/login.asp [1]). Trobem els següents productes per accedir als respectius portals web:

- QVS_ACCES_POINT --> Accés al portal ACCES_POINT de Qlikview que correspón al portal corporatiu de difusió d'informes Qlikview.

- QVS_INFOANALISIS --> Accés al portal ACCES_POINT de Qlikview pel Qlikview Extranet Server. Correspón al portal de difusió municipal i altres ens locals d'informes Qlikview.

- QS_INFOANALISIS_PRO --> Accés al portal QlikSense de l'entorn de desenvolupament

- QS_INFOANALISIS_TEST --> Accés al portal QlikSense de l'entorn de test.

- QS_INFOANALISIS --> Accés al portal QlikSense de l'entorn de productiu.

 

3. Conexions a BD

Les bases de dades internes son Oracle versió 19.

Les connexions a la BD es fan amb un connexió ODBC, OLEDB, JDBC.

En fase de desenvolupament s'establirà una connexió contra la màquina de test (isi.world).

 

4. Arquitectura d'una solució Pentaho

Cal treballar els processos ETL amb l'ús de Repositoris Pentaho.

Es defineix un repositori específic per cada projecte i s'importen en el Repositori de Productiu per la posada en marxa del projecte.

El repositori de productiu es PentahoRepository associat a una BD HSQLDB.

S'espera que s'utilitzi el framework de desenvolupament definit per la Diputació de Barcelona i que trobareu en el següent enllaç:  https://comunitatdstsc.diba.cat/wiki/arquitectura-duna-solucio-pentaho [2]

 

5. Arquitectura d'una solució Qlik

S'espera que s'utilitzi l'estructura de Qlik Deployment Framework. La DSTSC crearà el projecte i llliurarà la carpeta QDF al desenvolupador.

La solució ha de ser de fàcil manteniment un cop lliurada i complir les best practices de programació:

Una projecte Qlik comporta les següents capes de codi, com a mínim:

5.1. Processos extracció

Els processos dedicats a extraure dades s'anomenaran: Extractors.

Les eines TI que actualment s’utilitzen per a fer l’extracció de dades són les següents:

  • Qlikview/QlikSense
  • Pentaho, sobretot per a dades externes de la DIBA

Hi ha l’extractor de la capa 0 y l’ extractor de la capa 1. La nomenclatura ha de ser : Extraccio_(nomEsquema)_CapaX.qvw

Es defineixen dos nivells d'extracció de dades:

5.1.1. Capa QVDs: Capa 0

1er nivell d'extracció implica l'extracció directa de totes les dades sense fer cap transformació. 

Les dades quedaran ubicades en la carpeta Capa 0 (Stage area) en forma de fitxers QVDs. (<Proj.QDF>\1.QVD\1.Capa_0)

Si la dada es troba en la BD Oracle19, farem l'extracció amb un procés Qlik.

Si la dada es troba en una Font externa (exemple: INE, Idescat, Portal Dades Obertes Gene) s'ha de valorar amb la DSTSC, si és necessari emmagatzemar la dada en el magatzem de dades ORACLE o altre. Per aquesta gestió s’hauria d’utilitzar Pentaho Data Integrationl.

La Capa 0 ha de ser una capa de dades extretes directament de l’origen i sense cap transformació. Si es tracta d’una taula d’un SGBD el nom del QVD generat serà el de la taula extreta, si es tracta d’un fitxer el nom serà el del fitxer.

5.1.2. Capa QVDs: Capa 1

2on nivell d'extracció, equival al procés de transformació de les dades. En aquesta capa s'espera:

- Format i qualitat de les dades correcta

- Definir el Diccionari de dades dels camps (s'ha de consensuar amb l'usuari responsable del negoci)

El resultat ha de ser en forma de fitxers QVD,  de tal manera que:

- Cada fitxer identifiqui la informació d'un objecte de negoci: codis, atributs i valors

- Cal documentar cada QVD generat en aquesta fase

Les dades quedaran ubicades en la carpeta Capa 1 ((<Proj.QDF>\1.QVD\1.Capa_0)) en forma de fitxers QVDs.

És obligatòri pels QVDs de la Capa 1, asignar una descripció que identifiqui el contingut del QVD. L'assignació de la descripció s'ha de fer en l'Extractor de Capa1 i de la següent forma:

5.2. Respositori de dades

Els QVDs desenvolupats es traspassaran al repositori central quan la solució es posi a producció.

Abans de generar un nou QVD per un projecte, cal identificar si ja existeix en el Repositori (DSTSC determinarà aquesta informació durant fase análisis projecte).

 

5.3. Capa Model analític o núvol de dades

Es en aquest procés on s'estableixen les connexions, es defineixen les taules de FETS, Link Tables i Taules d'atributs.

La nomenclatura ha de ser.

Nom: NUVOL-XXX  tal que XXX es determinarà amb la DSTSC.

 

6. Capa Presentació

Cal que les aplicacions analítiques utilitzen el full d'estils corporatius.

En el cas de Qlikview, trobareu les plantilles corporatives a (\\nas\apps\QLIK_DADES, la DSTSC gestionarà l'accés en aquesta carpeta).

En el cas de QlikSense, cal fer servir el Tema de la Diputació.

 

7. Bones práctiques de programació

Qlikview/QlikSense:

  1. A l'inici del projecte la DSTSC facilitarà el fitxer de configuració amb el nom dels connectors/rutes a considerar.
  2. Les rutes als fitxers d'entrada i sortida o connectors de dades en QlikSense cal acordar-los amb la DSTSC i assignar-los a variables a l'inici de l'script a través d'un fitxer de configuració amb format .qvs.
  3. No es podrà fer càlculs sobre camps clau de les taules del model de dades. Si cal es definirà un camp alternatiu que s'utilitzarà per a comptar.
  4. Els camps clau que connecten les taules del model, caldrà que s'amaguin del model mitjançant la instrucció Hide, des de l'script.
  5. Tots els camps del model de dades cal que tinguin una descripció comprensible de cara a l'usuari final.
  6. Les mètriques bàsiques es definiran, en cada projecte, en un fitxer excel que tindrà el mateix format que el que annexem com a exemple: /sites/comunitatdstsc.diba.cat/files/userfiles/comunitat/ods.variables.xlsx [3]

 

8. Gestió d'usuaris i permisos

La gestió de permisos s'ha de definir a partir del qvd's: TaulaUsuaris.qvd i PermisosUsuaris. qvd.

La gestió de permisos es farà amb secció d'accés quan aquest impliquin una reducció de la informació possible a consultar.

 

 

 

 

 

Categories: 
Públic
Categories: 
Plataforma QlikView
Etiquetes: 
projectes BI
AdjuntMida
Exemple_Fitxer_variables_mesures [4]26.3 KB

Model de gestió de projectes BI

Taula de continguts
  • 1. Introducció
  • 2. Gestió projectes
  • 3. Seguiment del temps
  • 4. Seguiment facturació

1. Introducció

Aquest document pretén explicar el model de treball per la gestió de projectes de BI.

Els projectes de BI es gestionaran utilitzant la metodologia de treball próxima a l'SCRUM.

L'aplicació Redmine serà el sistema de gestió del desenvolupament del projecte. Cal tenir en compte que Redmine es un entorn col·laboratiu que permet la gestió i seguiment de les tasques del projecte. Redmine basa la gestió de projectes en assumptes. Els assumptes poden ser de diverses tipologies: funcionalitats, tasques, errors, reunions.

Tots els membres de l'equip estaràn registrats en el projecte definit a Redmine.

Dins el projecte de Redmine hi ha una wiki on s'organitzarà de forma estructurada la documentació del projecte. 

2. Gestió projectes

Per fer la gestió correcta del projecte en Remine, cal tenir en compte les següent consideracions:

  1. Reunió inici de projecte o kick off

L’acte de la reunió caldrà incorporar-la en el Redmine generant un assumpte de tipus Reunió.

El Cap de projecte de la Diputació, caldrà que doni d'alta el projecte en el Redmine especificant:

  • Nom del projecte
  • Objecte del projecte 
  • Abast del projecte
  • Equip de treball (caldrà donar accés a tots els membres del projecte al Redmine)
  1. Sprint 0

Correspon a la primera fase d’anàlisis que consisteix en un conjunt de reunions on els membres de l’equip es reuniran per revisar els requeriments d’usuari.

Les actes de les reunions caldrà actualitzar-les en el Redmine.

D’aquesta fase sorgirà un document de definició del projecte i la concretació d’un conjunt de funcionalitats a desenvolupar que defineixen el backlog del projecte.

Les funcionalitats a desenvolupar o backlog caldrà crear-les en el Redmine amb el tipus d’assumpte funcionalitat.

  1. Sprint 1 i resta

De cada funcionalitat es generen les tasques vinculades que cal fer amb el tipus d’assumpte tasca.

La tasca s’assignarà al responsable del seu desenvolupament.

A la tasca s’aniran afegint notes per documentar la seva situació i les especificitats del seu desenvolupament.

Les tasques es re-assignaran a altres responsables, en el cas que sigui necessari.

La tasca, tindrà un cicle de vida determinada per les següents fases:

  1. Nou: s’assigna automàticament quan es crea l’assumpte.
  2. En procés: el tècnic responsable a fer el desenvolupament pot establir aquest estat una vegada comença a treballar sobre l’assumpte.
  3. Resolt: el tècnic responsable a fer el desenvolupament l’ha d'establir una vegada considera que aquest ha finalitzat. En aquesta fase, cal re assignar l’assumpte a l’usuari referent o responsable de IT per tal que iniciï la validació.
  4. Validat: Cal que l’usuari referent o el responsable a validar la funcionalitat inclosa a l’assumpte, l’assigni, una vegada s’hagi fet la validació o proves. En aquesta fase, cal re assignar l’assumpte al Cap de projecte de IT.
  5. Tancat: L’assigna el Cap de projecte de IT de la Diputació una vegada, hagi revisat el desenvolupament, contrastat les proves.

3. Seguiment del temps

Cal que el responsable de desenvolupar una tasca de Redmine assigni el temps que hi ha dedicat.

4. Seguiment facturació

Cal que a la factura hi consti, només les funcionalitats o tasques tancades.

Cal que el temps total, dedicat a cada funcionalitat o tasca conicideixi amb el temps de dedicació mecanitzat al Redmine.

 

 

 

 

Categories: 
Públic
Categories: 
Plataforma QlikView

Arquitectura d'una solució Pentaho

Processos Pentaho

Pentaho Data Integration, es l'alicació ETL que ens permet extraure la informació de les fonts de dades (preferiblement APIs), transformar-les en el format requerit i carregar-les al magatzem de dades de la organització (BD Oracle, esquema MG02).

Actualment podem dir que disposem de com a mínim 4 magatzems de dades en Oracle: HG2, MG01, MG02, MG03.

Un projecte de Pentaho consisteix en l'elaboració de processos de transformació que gestionen l'extracció de dades des de una font origen y la inserció de les dades en una fotn destí. En el nostre cas les fonts origen poden ser API's habilitades a través de Internet, fitxers locals que l'usuari pot preparar i contingut de pàgines web. De la mateixa manera podem dir que les fonts destí són o bé fitxers de sortida majoritàriament en format .csv o d'altres, o bé la Base de Dades Oracle o Mongo DB.

Els processos de ETL de Pentaho es consisteixen en processos de transformació (.ktr) i processos jobs (.kjb).

La diferència bàsica entre un job i una transformació, és que el job determina l'ordre d'execució de les transformacions. Les transformacions són les que gestiones el processament dels registres que s'extrauen, es transformes i es guarden.

Un procés d'extracció d'un dataset està format per:

  1. el job que guia el procés. 
  2. conjunt de transformacions o sub-jobs

El conjunt de processos Pentaho actius de la corporació han de residir en el repositori de productiu, anomenat PentahoRepositori. Actualment aquest repositori es gestiona sobre una base de dades hsqldb que és la que ve per defecte amb la instal·lació de Pentaho Server.

El Pentaho Server està instal·lat en el servidor sw0301.

L'entrada de dades dels processos estarà ubicada en URIs o seran fitxers ubicats en carpetes del servidor d'aplicacions NAS, on els Serveis encarregats de gestionar les dades disposaran d'un conjunt de carpetes que seguiran una definició estandarditzada. En aquesta estructura de carpetes també pot haver-hi espais on els processos dels servidor poden generar els possibles fitxers de sortida.

Estructura de carpetes per extracció d'un Dataset [5]
Estructura de les dades d’entrada [6]
Taules de control de la Base de Dades [7]

Categories: 
Públic
Categories: 
Plataforma QlikView
Etiquetes: 
projectes BI

Estructura de carpetes per extracció d'un Dataset

Veurem l'estructura de carpetes que organitzen els processos ETL que alimenten un repositori de dades concret, per exemple MG02 que és el repositori generat pel projecte de  Canvi Climàtic (QV_CANVI_CLIMATIC):

Estructura dels processos ETL

A continuació expliquem l'estructura, els seus nivells i una breu descripció:

(Configuració variables del sistema) [8]
[Nom Repositori]
00.Configuracio (Configuració global del projecte canvi climàtic) [9]
01.Jobs (Jobs globals, que es fan servir en totes o varies fonts.) [10]
02.Transformacions
03.Font [nom_procés]

00.Configuracio: Conté el fitxer config.properties, és el fitxer de configuració de variables locals [11], és a dir únics de el procés [nom_procés].
01.Jobs: Conté els jobs del procés [nom_procés] (Variables definides a nivell de job.) [12]
02.Transformacions: Conté les transformacions del procés [nom_procés]

01.Subtransformacions: Si aplica, conté llavors les transformacions que es fan servir dins d'una altra transformació del procés [nom_procés].

05.Output:

00.Configuracio: Conté el fitxer config.properties, és el fitxer de configuració de variables locals, és a dir únics de el procés 05.Output.
01.Jobs: Conté els jobs del procés 05.Output.
02.Transformacions: Conté les transformacions del procés 05.Output.

01.Subtransformacions: Conté les transformacions que es fan servir dins d'una altra transformació del procés 05.Output.

 
    
    
22214 [13]22215 [14]

 
Categories: 
Plataforma QlikView
Etiquetes: 
projectes BI

Estructura de les dades d’entrada

Estructura de les dades d’entrada

L'estructura dels fitxers d'entrada estarà ubicada a la carpeta departamental del Servei encarregat de emmagatzematge de les dades del repositori.

Estructura fitxers entrada

A continuació expliquem l'estructura, els seus nivells i una breu descripció

03.Font [nom procés]: Nom del procés. 

03. Fitxers d’entrada: En aquesta carpeta s'ha d'ubicar el fitxer d'entrada.

Processats: Quan el fitxer s'ha processat es mou a aquesta subcarpeta

Categories: 
Plataforma QlikView
Etiquetes: 
projectes BI
Direcció de Serveis de Tecnologies i Sistemes Corporatius. Recinte Mundet - Pavelló Migjorn. 08035 Barcelona

URL d'origen: https://comunitatdstsc.diba.cat/wiki/resum-plataforma-BI

Enllaços:
[1] https://dibaaps.diba.cat/vus/login.asp
[2] https://comunitatdstsc.diba.cat/wiki/arquitectura-duna-solucio-pentaho
[3] https://comunitatdstsc.diba.cat/sites/comunitatdstsc.diba.cat/files/userfiles/comunitat/ods.variables.xlsx
[4] https://comunitatdstsc.diba.cat/sites/comunitatdstsc.diba.cat/files/ods.variables.xlsx
[5] https://comunitatdstsc.diba.cat/wiki/estructura-de-carpetes-per-extraccio-dun-dataset
[6] https://comunitatdstsc.diba.cat/wiki/estructura-de-les-dades-d-entrada
[7] https://comunitatdstsc.diba.cat/wiki/taules-de-control-de-base-de-dades
[8] https://gestioprojectes.diba.cat/projects/qv_canvi_climatic/wiki/(Configuraci%C3%B3_variables_del_sistema)
[9] https://gestioprojectes.diba.cat/projects/qv_canvi_climatic/wiki/(Configuraci%C3%B3_global_del_projecte_canvi_clim%C3%A0tic)
[10] https://gestioprojectes.diba.cat/projects/qv_canvi_climatic/wiki/(Jobs_globals_que_es_fan_servir_en_totes_o_varies_fonts)
[11] https://gestioprojectes.diba.cat/projects/qv_canvi_climatic/wiki/Fitxer_de_configuraci%C3%B3_de_variables_locals
[12] https://gestioprojectes.diba.cat/projects/qv_canvi_climatic/wiki/(Variables_definides_a_nivell_de_job)
[13] https://gestioprojectes.diba.cat/attachments/22214
[14] https://gestioprojectes.diba.cat/attachments/22215