Pour initialiser le projet, nous avons besoin d'une dépendance depuis le registry privé de tiptap. Suivez les étapes suivantes :
- Créer un compte (gratuit) sur tiptap.
- Se rendre sur la page Pro Extensions de votre compte pour récupérer le token
- Créer un fichier
.npmTiptapToken.secret
contenant le token. Il sera utile pourdocker compose
et pour direnv (si l'on souhaite automatiser le chargement de la variableNPM_TIPTAP_TOKEN
) - Exporter la variable
NPM_TIPTAP_TOKEN
dans votre shell courant ou, pour automatiser cette étape, passer à l'étape suivante - (optionnel) Pour automatiser la chargement de cette variable lorsque l'on est dans le dossier du projet, il est possible d'installer direnv.
curl -sfL https://direnv.net/install.sh | bash
Le fichier .npmTiptapToken.secret
contenant le token sera chargé par le fichier .envrc déjà présent à la racine.
Il faut ensuite executer direnv allow
(et il faudra exécuter cette commande après chaque changement du fichier .envrc pour autoriser direnv à charger son contenu automatiquement lorsque le shell est dans le dossier)
Vous pouvez maintenant lancer la commande yarn install
pour installer les packages du projet et yarn build
pour build les packages.
Environnement | URL |
---|---|
Production (access granted only for authorized IP) | https://cdtn-admin.fabrique.social.gouv.fr/ |
Preproduction | https://cdtn-admin-preprod.ovh.fabrique.social.gouv.fr/ |
Used to populate the database with documents provided by external sources.
Each GitHub repo uses releases to track changes. Each release exposes content as JSON. Ingester retrieves the last version and inject data into Hasura.
A part of the content is based on documents retrieved from another services (code du travail, contributions, fiche travail/emploi...).
This step runs the Ingester script and populate the documentation.
Run the Ingester (/!\ hasura must be started):
yarn workspace ingester run cli:dev
Used to detect changes between external source packages. For each new release of an external packages, this script compares the content and insert diff in the database.
To access to the Hasura console, run this command:
hasura console --envfile ../../.env --project targets/hasura
A webpage is opened in your browser. The password is admin1
as set in the .env
file (HASURA_GRAPHQL_ADMIN_SECRET
key).
Start only the Hasura instance (it starts the postgreSQL as dependency):
docker compose up hasura
An administration website is available to configure and inject custom data.
This step starts the frontend project (based on next.js
). User and admin accounts are automatically created by the
Hasura step.
Type | Username | Password | Role |
---|---|---|---|
Admin | [email protected] | admin | super |
Frontend is reachable at the address http://localhost:3001
Run the frontend (it starts Hasura as dependency):
yarn workspace frontend dev
This service exposes an API which handle to trigger the export of the data from Postgres to Elasticsearch.
At the root of the project
yarn # to install dep
yarn workspace export-elasticsearch build # to build project
At the root of the project, please run this command:
docker-compose up -d postgres
kubectx ovh-prod pour utiliser le contexte prod
./scripts/dump_db.sh -n cdtn-admin # Dans le cas où on accepte de relancer l'environnement avec ce dump, alors on peut passer à l'étape 4
docker-compose exec -T postgres pg_restore \
--dbname postgres --clean --if-exists --user postgres \
--no-owner --no-acl --verbose < ~/MY_PATH/file.psql
docker-compose exec -T postgres psql \
--dbname postgres --user postgres \
< .kontinuous/sql/post-restore.sql
docker-compose up -d hasura minio elasticsearch createbuckets
DISABLE_LIMIT_EXPORT=true DISABLE_AGREEMENTS=true DISABLE_SITEMAP=true DISABLE_COPY=true HASURA_GRAPHQL_ENDPOINT="http://localhost:8080/v1/graphql" HASURA_GRAPHQL_ADMIN_SECRET="admin1" ELASTICSEARCH_URL_PREPROD="http://localhost:9200" ELASTICSEARCH_URL_PROD="http://localhost:9200" SITEMAP_DESTINATION_FOLDER="sitemap" SITEMAP_NAME="sitemap.xml" SITEMAP_ENDPOINT="http://localhost:3001/api/sitemap" AGREEMENTS_DESTINATION_FOLDER="agreements" AGREEMENTS_DESTINATION_NAME="index.json" BUCKET_DEFAULT_FOLDER="default" BUCKET_DRAFT_FOLDER="draft" BUCKET_PUBLISHED_FOLDER= BUCKET_PREVIEW_FOLDER="preview" BUCKET_ACCESS_KEY="MINIO_ACCESS_KEY" BUCKET_ENDPOINT=http://localhost:9000 BUCKET_NAME="cdtn" BUCKET_SECRET_KEY="MINIO_SECRET_KEY" BUCKET_REGION="us-east-1" CDTN_ADMIN_ENDPOINT="http://localhost:8080/v1/graphql" ELASTICSEARCH_INDEX_PREPROD="cdtn-v2" ELASTICSEARCH_INDEX_PROD="cdtn-v2" FETCH_PAGE_SIZE=1000 FETCH_JOB_CONCURRENCY=5 yarn workspace export-elasticsearch dev
DISABLE_LIMIT_EXPORT
is used to disable the limit to run two export in less than one hourDISABLE_INGESTER
is used to disable the copy from postgres to elasticsearchDISABLE_COPY
is used to disable copy between two containersDISABLE_SITEMAP
is used to disable copy of the sitemapDISABLE_AGREEMENTS
is used to disable copy of the agreements
yarn workspace export-elasticsearch run:ingester
yarn workspace frontend dev
yarn workspace @cdt/frontend dev
- Go to
http://localhost:3001/
- Connect to the frontend ui with
[email protected]
andadmin
as password. - Navigate to
Mise à jour
- Click on
Mettre à jour la pre-production
orMettre à jour la production
La table documents dans le schéma public contient les documents qui se transforment (pour la plus grande partie) en page sur le site du code du travail numérique.
Voici un tableau descriptif des champs de cette table :
Nom du champ | type | Description |
---|---|---|
cdtn_id | text | Identifiant unique générer par la méthode generateCdtnId dans le package shared/id-generator |
initial_id | text | L'identifiant externe du document (pour les contenus legifrance c'est le KALIARTI renvoyé par l'API, pour la fiche service publique c'est l'identifiant FXXX fourni, pour les contenus internes c'est un UUID généré...) |
title | text | Le titre de la page qui sera affiché dans le H1. Attention, il y a également le meta_title qui peut être présent dans le champ document |
meta_description | text | La meta description de la page |
source | text | L'identifiant de la source, voici la liste: (dossiers , prequalified , conventions_collectives , external , themes , contributions , page_fiche_ministere_travail , information , outils , highlights , modeles_de_courriers , fiches_service_public , code_du_travail ) |
slug | text | Le slug présent dans l'URL utilisé comme identifiant unique pour récupérer le contenu dans la page depuis le front |
text | text | Contenu de la page en format texte brut pour générer les vecteurs de recherche |
document | jsonb | Contenu de la page dans un format jsonb (attention, ça peut être un peu un fourre-tout) |
is_published | boolean | Permet d'activer/désactiver la génération d'une page sur le site associé au contenu. Utilisé pour dépublier du contenu par l'équipe métier. Attention, actuellement utilisé également pour permettre la recherche de convention collective qui ne possèdent pas de page associée issue du projet kali-data |
is_searchable | boolean | Permet de recherche la page depuis le moteur globale du site code du travail numérique. Cela ne permet pas de désactiver la recherche depuis un moteur externe. |
created_at | timestamp with time zone | Date de création du document |
updated_at | timestamp with time zone | Date de mise à jour du document |
is_available | boolean | Flag technique. Il est utilisé par l'ingester. Il permet d'identifier les contenus externes (fiche SP, convention collective...) qui ne sont plus disponibles. L'ingester va mettre le flag à false dans ce cas. On ne supprime pas le contenu car il y a des thèmes associés et si le contenu revient, on ne souhaite pas perdre les thèmes associés |
Lorsqu'on rajoute une table, ne pas oublier de rajouter dans la migration l'appel à la fonction d'audit
-- ajout des triggers d'audit sur la table documents
select audit.audit_table('documents');
-- Le trigger peut être configuré pour
select audit.audit_table('documents',
-- se declencher au niveau ROW ou STATEMENT
'false',
-- enregistrer le text de la requête
'false',
-- ignorer d'enregistrer certains champs
'{text}');
Pour voir la configuration du trigger
Les données de certaines tables sont nettoyées automatiquement.
Pour l'instant seulement 2 triggers sont en place:
- nettoyage de la table
alerts
(alertes traitées conservés pour 3mois) - nettoyage de la table
audit.logged_action
(actions conservées pour 3mois)
query GetAllDocuments($sources: [String!]) {
documents(where: { source: { _in: $sources } }) {
cdtn_id
}
}
With published documents:
query GetAllDocumentsPublished($sources: [String!]) {
documents(where: { is_published: { _eq: true }, source: { _in: $sources } }) {
cdtn_id
}
}
Avec comme paramètres :
{
"sources": ["page_fiche_ministere_travail", "information", "fiches_service_public", "modeles_de_courriers", "contributions", "conventions_collectives"]
}
Pour la partie sql, il faut utiliser la requête suivante :
SELECT COUNT(*)
FROM documents
WHERE source IN ('page_fiche_ministere_travail', 'information', 'fiches_service_public', 'modeles_de_courriers', 'contributions', 'conventions_collectives')
AND is_published = TRUE;
Le but est de pouvoir exporter les données de la branche dans elasticsearch et d'avoir une instance du site cdtn qui est lié à ces données.
Afin de lier les deux environnements, il est nécessaire de nommer identiquement ses branches (admin et cdtn) en commençant par le mot linked
(exemple : linked-my-feature
, linked/my-feature
).
Cela permet de lier l'index elasticsearch automatiquement entre les deux branches.
L'export des données se fait depuis l'admin dans la section Contenus > Mise à jour
. Il faut ensuite cliquer sur le bouton Mettre à jour la pre-production
.
- Les fichiers du site sont stockés au même endroit pour l'ensemble des branches. Si on ajoute/modifie/supprime un fichier, cela sera également le cas sur l'ensemble des branches
- Le sitemap du site est stocké au même endroit pour l'ensemble des branches. Les branches sur le site CDTN récupérera le dernier sitemap généré.