Compare commits
308 Commits
Author | SHA1 | Date | |
---|---|---|---|
b7cbfbae67 | |||
|
0fee2e612b | ||
1167c13787 | |||
963c09976b | |||
|
dbb5ac8946 | ||
|
93bb9d598e | ||
|
9801cf7936 | ||
|
db44e8e5f4 | ||
|
ffdaf2a19a | ||
|
ba77b155c5 | ||
fed84559fc | |||
02a5b00ecf | |||
dcdf6a8012 | |||
912a213dcd | |||
3575e89dc0 | |||
|
675eccd6b6 | ||
|
07a8658672 | ||
|
80bd02114e | ||
|
65a4b31fbd | ||
|
7bdae70d38 | ||
21c0625147 | |||
e18c1d8fd0 | |||
5867d0f430 | |||
9897ccc659 | |||
|
7575959bd4 | ||
|
2aafbad9e2 | ||
50f2cd7a0f | |||
fd8fbb9e02 | |||
|
ebcef76950 | ||
|
13349776af | ||
|
f275286b71 | ||
|
f4f6c13d79 | ||
e7f23efe65 | |||
e44d3fd5dc | |||
fac36fa11c | |||
9289535359 | |||
|
d73b925006 | ||
6749ca70d6 | |||
|
dea403b03d | ||
|
ab9543c310 | ||
|
f94998f66b | ||
|
eb88a8ca83 | ||
7042650fd9 | |||
2745ffd687 | |||
9a882ea41d | |||
ea6003e812 | |||
5c6935337e | |||
60998d2e20 | |||
29b877d9ed | |||
|
6834c19015 | ||
|
f47fc4ba46 | ||
5894c6f952 | |||
af1d1884c7 | |||
|
881bf82000 | ||
|
2ed4516a97 | ||
|
75ce1ccd31 | ||
|
f8d5f6ea11 | ||
|
70995fbd7e | ||
dc095765f2 | |||
|
1cec3fa703 | ||
|
032454aefd | ||
|
e3344cf424 | ||
|
d7acff9d35 | ||
|
decdf59e20 | ||
|
42fc08a3a3 | ||
|
f3770fb5c7 | ||
63b28a3277 | |||
bb23cdcea7 | |||
3ca5636454 | |||
42882154d5 | |||
489acb26d2 | |||
8ee373db7d | |||
8e56dc2418 | |||
b3331bd886 | |||
89afb672af | |||
8f25284038 | |||
f29002a57d | |||
69780b3f24 | |||
fbff151be0 | |||
3b436fa0f3 | |||
8847a1f008 | |||
ac882e9ccd | |||
000e016985 | |||
22d90215a0 | |||
043985bff6 | |||
d20ada1797 | |||
|
778fecabb6 | ||
|
fa6f83722e | ||
baa0412071 | |||
d51a47b71a | |||
f21ef41de6 | |||
2d673e7a5d | |||
3e43495831 | |||
|
a4db8c4ff8 | ||
|
1ac35d04c2 | ||
|
687ac3cf13 | ||
18b1f00586 | |||
|
6b985620e9 | ||
|
4d234ba353 | ||
|
5d45fcf656 | ||
|
0a5919b788 | ||
|
09f4525e66 | ||
0bc57807de | |||
87aaf12d27 | |||
c8ab9b9b6c | |||
ad7b48e110 | |||
f2ce16f161 | |||
1ddf9b6ab8 | |||
0a2e39cae1 | |||
a194b4b6e0 | |||
cbe85dfb7d | |||
beba69bfe4 | |||
41fec29452 | |||
9bd05ea241 | |||
58b831513d | |||
b861aba6a3 | |||
c2443c361f | |||
ab4731bd43 | |||
c17bc8b61b | |||
e44a5ee55d | |||
a747ed22e2 | |||
5d0a932634 | |||
2b150cf521 | |||
5a5ddcacd7 | |||
3f6e65b9da | |||
5eba6170a5 | |||
bd9bf87112 | |||
a0e2af481f | |||
42e8f97441 | |||
8ec0171ca0 | |||
6dfab2d843 | |||
523ec59833 | |||
bde6325391 | |||
0577347622 | |||
28d46e413d | |||
126ea0741a | |||
a5b5f49f76 | |||
|
b7ab10bf4e | ||
3e0b19c4a8 | |||
1dd5187fae | |||
|
9a3a7d33b2 | ||
|
a7569fe4f5 | ||
|
79e973f06d | ||
b6940e4882 | |||
1f24095c57 | |||
0ed2455028 | |||
b841b2f708 | |||
|
0fa1478138 | ||
|
85ad7b5f29 | ||
6bfd461bf2 | |||
e1f1a95a14 | |||
70e3006981 | |||
bae46c2794 | |||
|
b1055a4ebe | ||
|
b2ef6a4c53 | ||
|
a7c7bd655d | ||
|
1309043a98 | ||
|
a75b41ca5f | ||
8df25ca02f | |||
61f9dddeb6 | |||
a1f5340935 | |||
68128c27d5 | |||
8ecaa2bed0 | |||
7c61dd8d63 | |||
f493ba344f | |||
f5079d9aef | |||
55add2ffb3 | |||
5865b67652 | |||
3c8b088d5e | |||
2da359ae41 | |||
09ec53f573 | |||
3787e0145a | |||
edf989ee04 | |||
203f3a5342 | |||
161f8476ca | |||
d419d75515 | |||
f23630d7fd | |||
fa0417f0b1 | |||
12256dc3d4 | |||
46529917ea | |||
2367984848 | |||
46c86d2928 | |||
715e4f94ee | |||
|
b2e6ef63b9 | ||
|
30560e5860 | ||
|
0fbcfb1124 | ||
|
2daae1c9c5 | ||
635269ff36 | |||
4aa30a40bd | |||
03c03f3725 | |||
29eb8c297b | |||
38032a8c09 | |||
2f2d98954c | |||
2e5d94f048 | |||
1b1b8ebdc4 | |||
9c6db169f3 | |||
|
8ded16b94f | ||
|
5d10ee467e | ||
763f60fb3d | |||
|
7af0dd1e1e | ||
dece9a82d1 | |||
0262b6e2ac | |||
f8f47e05ff | |||
|
b74d525c28 | ||
|
c617ee321a | ||
|
56ec4ba43d | ||
|
d14f7e21b7 | ||
|
c3cb1da561 | ||
|
cce60d432d | ||
|
4386994f7d | ||
|
fddfddfa7b | ||
|
39dca32d2e | ||
|
e2b9cd3ded | ||
|
be227f4a2f | ||
959a98d0a2 | |||
35a038fd3a | |||
b46556c189 | |||
|
71f90f5261 | ||
|
1b037d6c7c | ||
60a97b7baf | |||
|
0332553587 | ||
|
958cf435c8 | ||
|
c69e9c34a0 | ||
|
17f8771b0b | ||
|
7eb41fb2eb | ||
|
a79ca4a17d | ||
411ef8ae0d | |||
169bf17fdd | |||
75d4c110a8 | |||
9003a2ca87 | |||
55ecaa45a9 | |||
ab39454a0d | |||
|
5158bd0c8f | ||
|
21b2e0f582 | ||
e56cbfc5a2 | |||
9cdab8d1ed | |||
7cdba43e86 | |||
|
079348bb87 | ||
|
c882e0d6a0 | ||
9c7576154c | |||
ce0d5ec9fd | |||
|
3d6be2f200 | ||
e675064cae | |||
|
185e061f01 | ||
|
e4c889ec8a | ||
7ef45e0bac | |||
|
f242fee5ff | ||
c960d943d2 | |||
741168a065 | |||
5c9126d263 | |||
ce63b7f2f5 | |||
5e5cb015d0 | |||
5fc1800f70 | |||
2459356245 | |||
b1602f0cf3 | |||
ba28d5f3c8 | |||
b9b9a172c7 | |||
c2a66b607f | |||
802e8f4648 | |||
|
3184d5d92e | ||
cf7d7d2db8 | |||
5ea65433be | |||
35a20c3307 | |||
8acd9a12d4 | |||
2020114c1b | |||
a93aa19449 | |||
|
c620c3b0e1 | ||
|
c2e77846b9 | ||
28b25ad681 | |||
5ea79c03a3 | |||
fdcf6388f5 | |||
|
9dcaf70e18 | ||
20d4b4e1b3 | |||
aaaf41250a | |||
|
b3b47a755f | ||
bc5292b165 | |||
ee601071f5 | |||
0cf3b0a782 | |||
49a5ec488d | |||
a50bbe9223 | |||
57d616da1a | |||
21a794a760 | |||
960f8a3462 | |||
6821a02956 | |||
eb56182407 | |||
02b057ca5a | |||
eff28d64f9 | |||
746314b2fb | |||
40a57a9b86 | |||
b5125fa3d7 | |||
0f446fe0d3 | |||
5f656b431b | |||
83059cd995 | |||
8de1a44583 | |||
491d600bd4 | |||
d6a75b176e | |||
70f399e8b7 | |||
68bd20f8de | |||
1716daafde | |||
5e49384a90 | |||
828c619c74 | |||
b8cb592ac9 | |||
d8381884dc | |||
883028216f | |||
267dbb6460 | |||
02a73de04d | |||
e78a2d3ffe | |||
bcb801662a |
152
README.md
152
README.md
|
@ -2,7 +2,7 @@
|
||||||
|
|
||||||
(c) Emmanuel Viennet 1999 - 2024 (voir LICENCE.txt).
|
(c) Emmanuel Viennet 1999 - 2024 (voir LICENCE.txt).
|
||||||
|
|
||||||
Installation: voir instructions à jour sur <https://scodoc.org/GuideInstallDebian11>
|
Installation: voir instructions à jour sur <https://scodoc.org/GuideInstallDebian12>
|
||||||
|
|
||||||
Documentation utilisateur: <https://scodoc.org>
|
Documentation utilisateur: <https://scodoc.org>
|
||||||
|
|
||||||
|
@ -23,7 +23,7 @@ Flask, SQLAlchemy, au lien de Python2/Zope dans les versions précédentes).
|
||||||
|
|
||||||
### Lignes de commandes
|
### Lignes de commandes
|
||||||
|
|
||||||
Voir [https://scodoc.org/GuideConfig](le guide de configuration).
|
Voir [le guide de configuration](https://scodoc.org/GuideConfig).
|
||||||
|
|
||||||
## Organisation des fichiers
|
## Organisation des fichiers
|
||||||
|
|
||||||
|
@ -41,45 +41,41 @@ Ils ne doivent pas être modifiés à la main, sauf certains fichiers de configu
|
||||||
Le répertoire `/opt/scodoc-data` doit être régulièrement sauvegardé.
|
Le répertoire `/opt/scodoc-data` doit être régulièrement sauvegardé.
|
||||||
|
|
||||||
Principaux contenus:
|
Principaux contenus:
|
||||||
|
```
|
||||||
/opt/scodoc-data
|
/opt/scodoc-data
|
||||||
/opt/scodoc-data/log # Fichiers de log ScoDoc
|
/opt/scodoc-data/log # Fichiers de log ScoDoc
|
||||||
/opt/scodoc-data/config # Fichiers de configuration
|
/opt/scodoc-data/config # Fichiers de configuration
|
||||||
.../config/logos # Logos de l'établissement
|
.../config/logos # Logos de l'établissement
|
||||||
.../config/depts # un fichier par département
|
.../config/depts # un fichier par département
|
||||||
/opt/scodoc-data/photos # Photos des étudiants
|
/opt/scodoc-data/photos # Photos des étudiants
|
||||||
/opt/scodoc-data/archives # Archives: PV de jury, maquettes Apogée, fichiers étudiants
|
/opt/scodoc-data/archives # Archives: PV de jury, maquettes Apogée, fichiers étudiants
|
||||||
|
```
|
||||||
## Pour les développeurs
|
## Pour les développeurs
|
||||||
|
|
||||||
### Installation du code
|
### Installation du code
|
||||||
|
|
||||||
Installer ScoDoc 9 normalement ([voir la doc](https://scodoc.org/GuideInstallDebian11)).
|
Installer ScoDoc 9 normalement ([voir la doc](https://scodoc.org/GuideInstallDebian12)).
|
||||||
|
|
||||||
Puis remplacer `/opt/scodoc` par un clone du git.
|
Puis remplacer `/opt/scodoc` par un clone du git.
|
||||||
|
```bash
|
||||||
|
sudo su
|
||||||
|
mv /opt/scodoc /opt/off-scodoc # ou ce que vous voulez
|
||||||
|
apt-get install git # si besoin
|
||||||
|
git clone https://scodoc.org/git/ScoDoc/ScoDoc.git /opt/scodoc
|
||||||
|
# (ou bien utiliser votre clone gitea si vous l'avez déjà créé !)
|
||||||
|
|
||||||
sudo su
|
# Donner ce répertoire à l'utilisateur scodoc:
|
||||||
mv /opt/scodoc /opt/off-scodoc # ou ce que vous voulez
|
chown -R scodoc:scodoc /opt/scodoc
|
||||||
apt-get install git # si besoin
|
```
|
||||||
cd /opt
|
|
||||||
git clone https://scodoc.org/git/viennet/ScoDoc.git
|
|
||||||
# (ou bien utiliser votre clone gitea si vous l'avez déjà créé !)
|
|
||||||
|
|
||||||
# Renommer le répertoire:
|
|
||||||
mv ScoDoc scodoc
|
|
||||||
|
|
||||||
# Et donner ce répertoire à l'utilisateur scodoc:
|
|
||||||
chown -R scodoc.scodoc /opt/scodoc
|
|
||||||
|
|
||||||
Il faut ensuite installer l'environnement et le fichier de configuration:
|
Il faut ensuite installer l'environnement et le fichier de configuration:
|
||||||
|
```bash
|
||||||
# Le plus simple est de piquer le virtualenv configuré par l'installeur:
|
# Le plus simple est de piquer le virtualenv configuré par l'installeur:
|
||||||
mv /opt/off-scodoc/venv /opt/scodoc
|
mv /opt/off-scodoc/venv /opt/scodoc
|
||||||
|
```
|
||||||
Et la config:
|
Et la config:
|
||||||
|
```bash
|
||||||
ln -s /opt/scodoc-data/.env /opt/scodoc
|
ln -s /opt/scodoc-data/.env /opt/scodoc
|
||||||
|
```
|
||||||
Cette dernière commande utilise le `.env` crée lors de l'install, ce qui
|
Cette dernière commande utilise le `.env` crée lors de l'install, ce qui
|
||||||
n'est pas toujours le plus judicieux: vous pouvez modifier son contenu, par
|
n'est pas toujours le plus judicieux: vous pouvez modifier son contenu, par
|
||||||
exemple pour travailler en mode "développement" avec `FLASK_ENV=development`.
|
exemple pour travailler en mode "développement" avec `FLASK_ENV=development`.
|
||||||
|
@ -88,11 +84,11 @@ exemple pour travailler en mode "développement" avec `FLASK_ENV=development`.
|
||||||
|
|
||||||
Les tests unitaires utilisent normalement la base postgresql `SCODOC_TEST`.
|
Les tests unitaires utilisent normalement la base postgresql `SCODOC_TEST`.
|
||||||
Avant le premier lancement, créer cette base ainsi:
|
Avant le premier lancement, créer cette base ainsi:
|
||||||
|
```bash
|
||||||
./tools/create_database.sh SCODOC_TEST
|
./tools/create_database.sh SCODOC_TEST
|
||||||
export FLASK_ENV=test
|
export FLASK_ENV=test
|
||||||
flask db upgrade
|
flask db upgrade
|
||||||
|
```
|
||||||
Cette commande n'est nécessaire que la première fois (le contenu de la base
|
Cette commande n'est nécessaire que la première fois (le contenu de la base
|
||||||
est effacé au début de chaque test, mais son schéma reste) et aussi si des
|
est effacé au début de chaque test, mais son schéma reste) et aussi si des
|
||||||
migrations (changements de schéma) ont eu lieu dans le code.
|
migrations (changements de schéma) ont eu lieu dans le code.
|
||||||
|
@ -100,17 +96,17 @@ migrations (changements de schéma) ont eu lieu dans le code.
|
||||||
Certains tests ont besoin d'un département déjà créé, qui n'est pas créé par les
|
Certains tests ont besoin d'un département déjà créé, qui n'est pas créé par les
|
||||||
scripts de tests:
|
scripts de tests:
|
||||||
Lancer au préalable:
|
Lancer au préalable:
|
||||||
|
```bash
|
||||||
flask delete-dept -fy TEST00 && flask create-dept TEST00
|
flask delete-dept -fy TEST00 && flask create-dept TEST00
|
||||||
|
```
|
||||||
Puis dérouler les tests unitaires:
|
Puis dérouler les tests unitaires:
|
||||||
|
```bash
|
||||||
pytest tests/unit
|
pytest tests/unit
|
||||||
|
```
|
||||||
Ou avec couverture (`pip install pytest-cov`)
|
Ou avec couverture (`pip install pytest-cov`)
|
||||||
|
```bash
|
||||||
pytest --cov=app --cov-report=term-missing --cov-branch tests/unit/*
|
pytest --cov=app --cov-report=term-missing --cov-branch tests/unit/*
|
||||||
|
```
|
||||||
#### Utilisation des tests unitaires pour initialiser la base de dev
|
#### Utilisation des tests unitaires pour initialiser la base de dev
|
||||||
|
|
||||||
On peut aussi utiliser les tests unitaires pour mettre la base de données de
|
On peut aussi utiliser les tests unitaires pour mettre la base de données de
|
||||||
|
@ -119,43 +115,43 @@ développement dans un état connu, par exemple pour éviter de recréer à la m
|
||||||
|
|
||||||
Il suffit de positionner une variable d'environnement indiquant la BD utilisée
|
Il suffit de positionner une variable d'environnement indiquant la BD utilisée
|
||||||
par les tests:
|
par les tests:
|
||||||
|
```bash
|
||||||
export SCODOC_TEST_DATABASE_URI=postgresql:///SCODOC_DEV
|
export SCODOC_TEST_DATABASE_URI=postgresql:///SCODOC_DEV
|
||||||
|
```
|
||||||
(si elle n'existe pas, voir plus loin pour la créer) puis de les lancer
|
(si elle n'existe pas, voir plus loin pour la créer) puis de les lancer
|
||||||
normalement, par exemple:
|
normalement, par exemple:
|
||||||
|
```bash
|
||||||
pytest tests/unit/test_sco_basic.py
|
pytest tests/unit/test_sco_basic.py
|
||||||
|
```
|
||||||
Il est en général nécessaire d'affecter ensuite un mot de passe à (au moins) un
|
Il est en général nécessaire d'affecter ensuite un mot de passe à (au moins) un
|
||||||
utilisateur:
|
utilisateur:
|
||||||
|
```bash
|
||||||
flask user-password admin
|
flask user-password admin
|
||||||
|
```
|
||||||
**Attention:** les tests unitaires **effacent** complètement le contenu de la
|
**Attention:** les tests unitaires **effacent** complètement le contenu de la
|
||||||
base de données (tous les départements, et les utilisateurs) avant de commencer !
|
base de données (tous les départements, et les utilisateurs) avant de commencer !
|
||||||
|
|
||||||
#### Modification du schéma de la base
|
#### Modification du schéma de la base
|
||||||
|
|
||||||
On utilise SQLAlchemy avec Alembic et Flask-Migrate.
|
On utilise SQLAlchemy avec Alembic et Flask-Migrate.
|
||||||
|
```bash
|
||||||
flask db migrate -m "message explicatif....."
|
flask db migrate -m "message explicatif....."
|
||||||
flask db upgrade
|
flask db upgrade
|
||||||
|
```
|
||||||
Ne pas oublier de d'ajouter le script de migration à git (`git add migrations/...`).
|
Ne pas oublier de d'ajouter le script de migration à git (`git add migrations/...`).
|
||||||
|
|
||||||
**Mémo**: séquence re-création d'une base (vérifiez votre `.env`
|
**Mémo**: séquence re-création d'une base (vérifiez votre `.env`
|
||||||
ou variables d'environnement pour interroger la bonne base !).
|
ou variables d'environnement pour interroger la bonne base !).
|
||||||
|
```bash
|
||||||
|
dropdb SCODOC_DEV
|
||||||
|
tools/create_database.sh SCODOC_DEV # créé base SQL
|
||||||
|
flask db upgrade # créé les tables à partir des migrations
|
||||||
|
flask sco-db-init # ajoute au besoin les constantes (fait en migration 0)
|
||||||
|
|
||||||
dropdb SCODOC_DEV
|
# puis imports:
|
||||||
tools/create_database.sh SCODOC_DEV # créé base SQL
|
flask import-scodoc7-users
|
||||||
flask db upgrade # créé les tables à partir des migrations
|
flask import-scodoc7-dept STID SCOSTID
|
||||||
flask sco-db-init # ajoute au besoin les constantes (fait en migration 0)
|
```
|
||||||
|
|
||||||
# puis imports:
|
|
||||||
flask import-scodoc7-users
|
|
||||||
flask import-scodoc7-dept STID SCOSTID
|
|
||||||
|
|
||||||
Si la base utilisée pour les dev n'est plus en phase avec les scripts de
|
Si la base utilisée pour les dev n'est plus en phase avec les scripts de
|
||||||
migration, utiliser les commandes `flask db history`et `flask db stamp`pour se
|
migration, utiliser les commandes `flask db history`et `flask db stamp`pour se
|
||||||
positionner à la bonne étape.
|
positionner à la bonne étape.
|
||||||
|
@ -163,23 +159,23 @@ positionner à la bonne étape.
|
||||||
### Profiling
|
### Profiling
|
||||||
|
|
||||||
Sur une machine de DEV, lancer
|
Sur une machine de DEV, lancer
|
||||||
|
```bash
|
||||||
flask profile --host 0.0.0.0 --length 32 --profile-dir /opt/scodoc-data
|
flask profile --host 0.0.0.0 --length 32 --profile-dir /opt/scodoc-data
|
||||||
|
```
|
||||||
le fichier `.prof` sera alors écrit dans `/opt/scodoc-data` (on peut aussi utiliser `/tmp`).
|
le fichier `.prof` sera alors écrit dans `/opt/scodoc-data` (on peut aussi utiliser `/tmp`).
|
||||||
|
|
||||||
Pour la visualisation, [snakeviz](https://jiffyclub.github.io/snakeviz/) est bien:
|
Pour la visualisation, [snakeviz](https://jiffyclub.github.io/snakeviz/) est bien:
|
||||||
|
```bash
|
||||||
pip install snakeviz
|
pip install snakeviz
|
||||||
|
```
|
||||||
puis
|
puis
|
||||||
|
```bash
|
||||||
snakeviz -s --hostname 0.0.0.0 -p 5555 /opt/scodoc-data/GET.ScoDoc......prof
|
snakeviz -s --hostname 0.0.0.0 -p 5555 /opt/scodoc-data/GET.ScoDoc......prof
|
||||||
|
```
|
||||||
## Paquet Debian 12
|
## Paquet Debian 12
|
||||||
|
|
||||||
Les scripts associés au paquet Debian (.deb) sont dans `tools/debian`. Le plus
|
Les scripts associés au paquet Debian (.deb) sont dans `tools/debian`. Le plus
|
||||||
important est `postinst`qui se charge de configurer le système (install ou
|
important est `postinst` qui se charge de configurer le système (install ou
|
||||||
upgrade de scodoc9).
|
upgrade de scodoc9).
|
||||||
|
|
||||||
La préparation d'une release se fait à l'aide du script
|
La préparation d'une release se fait à l'aide du script
|
||||||
|
|
|
@ -315,12 +315,6 @@ def create_app(config_class=DevConfig):
|
||||||
app.register_error_handler(503, postgresql_server_error)
|
app.register_error_handler(503, postgresql_server_error)
|
||||||
app.register_error_handler(APIInvalidParams, handle_invalid_usage)
|
app.register_error_handler(APIInvalidParams, handle_invalid_usage)
|
||||||
|
|
||||||
# Add some globals
|
|
||||||
# previously in Flask-Bootstrap:
|
|
||||||
app.jinja_env.globals["bootstrap_is_hidden_field"] = lambda field: isinstance(
|
|
||||||
field, HiddenField
|
|
||||||
)
|
|
||||||
|
|
||||||
from app.auth import bp as auth_bp
|
from app.auth import bp as auth_bp
|
||||||
|
|
||||||
app.register_blueprint(auth_bp, url_prefix="/auth")
|
app.register_blueprint(auth_bp, url_prefix="/auth")
|
||||||
|
@ -338,8 +332,15 @@ def create_app(config_class=DevConfig):
|
||||||
from app.api import api_bp
|
from app.api import api_bp
|
||||||
from app.api import api_web_bp
|
from app.api import api_web_bp
|
||||||
|
|
||||||
|
# Jinja2 configuration
|
||||||
# Enable autoescaping of all templates, including .j2
|
# Enable autoescaping of all templates, including .j2
|
||||||
app.jinja_env.autoescape = select_autoescape(default_for_string=True, default=True)
|
app.jinja_env.autoescape = select_autoescape(default_for_string=True, default=True)
|
||||||
|
app.jinja_env.trim_blocks = True
|
||||||
|
app.jinja_env.lstrip_blocks = True
|
||||||
|
# previously in Flask-Bootstrap:
|
||||||
|
app.jinja_env.globals["bootstrap_is_hidden_field"] = lambda field: isinstance(
|
||||||
|
field, HiddenField
|
||||||
|
)
|
||||||
|
|
||||||
# https://scodoc.fr/ScoDoc
|
# https://scodoc.fr/ScoDoc
|
||||||
app.register_blueprint(scodoc_bp)
|
app.register_blueprint(scodoc_bp)
|
||||||
|
@ -636,14 +637,12 @@ def critical_error(msg):
|
||||||
import app.scodoc.sco_utils as scu
|
import app.scodoc.sco_utils as scu
|
||||||
|
|
||||||
log(f"\n*** CRITICAL ERROR: {msg}")
|
log(f"\n*** CRITICAL ERROR: {msg}")
|
||||||
send_scodoc_alarm(f"CRITICAL ERROR: {msg}", msg)
|
subject = f"CRITICAL ERROR: {msg}".strip()[:68]
|
||||||
|
send_scodoc_alarm(subject, msg)
|
||||||
clear_scodoc_cache()
|
clear_scodoc_cache()
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
f"""
|
f"""
|
||||||
Une erreur est survenue.
|
Une erreur est survenue, veuillez ré-essayer.
|
||||||
|
|
||||||
Si le problème persiste, merci de contacter le support ScoDoc via
|
|
||||||
{scu.SCO_DISCORD_ASSISTANCE}
|
|
||||||
|
|
||||||
{msg}
|
{msg}
|
||||||
"""
|
"""
|
||||||
|
|
|
@ -3,14 +3,15 @@
|
||||||
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
# See LICENSE
|
# See LICENSE
|
||||||
##############################################################################
|
##############################################################################
|
||||||
"""ScoDoc 9 API : Assiduités
|
"""ScoDoc 9 API : Assiduités"""
|
||||||
"""
|
|
||||||
from datetime import datetime
|
from datetime import datetime
|
||||||
|
|
||||||
from flask import g, request
|
from flask import g, request
|
||||||
from flask_json import as_json
|
from flask_json import as_json
|
||||||
from flask_login import current_user, login_required
|
from flask_login import current_user, login_required
|
||||||
from flask_sqlalchemy.query import Query
|
from flask_sqlalchemy.query import Query
|
||||||
|
from sqlalchemy.orm.exc import ObjectDeletedError
|
||||||
|
|
||||||
from app import db, log, set_sco_dept
|
from app import db, log, set_sco_dept
|
||||||
import app.scodoc.sco_assiduites as scass
|
import app.scodoc.sco_assiduites as scass
|
||||||
|
@ -858,7 +859,10 @@ def assiduite_edit(assiduite_id: int):
|
||||||
msg=f"assiduite: modif {assiduite_unique}",
|
msg=f"assiduite: modif {assiduite_unique}",
|
||||||
)
|
)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
scass.simple_invalidate_cache(assiduite_unique.to_dict())
|
try:
|
||||||
|
scass.simple_invalidate_cache(assiduite_unique.to_dict())
|
||||||
|
except ObjectDeletedError:
|
||||||
|
return json_error(404, "Assiduité supprimée / inexistante")
|
||||||
|
|
||||||
return {"OK": True}
|
return {"OK": True}
|
||||||
|
|
||||||
|
|
|
@ -414,9 +414,16 @@ def bulletin(
|
||||||
if version == "pdf":
|
if version == "pdf":
|
||||||
version = "long"
|
version = "long"
|
||||||
pdf = True
|
pdf = True
|
||||||
if version not in scu.BULLETINS_VERSIONS_BUT:
|
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
||||||
|
if version not in (
|
||||||
|
scu.BULLETINS_VERSIONS_BUT
|
||||||
|
if formsemestre.formation.is_apc()
|
||||||
|
else scu.BULLETINS_VERSIONS
|
||||||
|
):
|
||||||
return json_error(404, "version invalide")
|
return json_error(404, "version invalide")
|
||||||
formsemestre = FormSemestre.query.filter_by(id=formsemestre_id).first_or_404()
|
if formsemestre.bul_hide_xml and pdf:
|
||||||
|
return json_error(403, "bulletin non disponible")
|
||||||
|
# note: la version json est réduite si bul_hide_xml
|
||||||
dept = Departement.query.filter_by(id=formsemestre.dept_id).first_or_404()
|
dept = Departement.query.filter_by(id=formsemestre.dept_id).first_or_404()
|
||||||
if g.scodoc_dept and dept.acronym != g.scodoc_dept:
|
if g.scodoc_dept and dept.acronym != g.scodoc_dept:
|
||||||
return json_error(404, "formsemestre inexistant")
|
return json_error(404, "formsemestre inexistant")
|
||||||
|
|
|
@ -52,7 +52,8 @@ def formations():
|
||||||
@as_json
|
@as_json
|
||||||
def formations_ids():
|
def formations_ids():
|
||||||
"""
|
"""
|
||||||
Retourne la liste de toutes les id de formations (tous départements)
|
Retourne la liste de toutes les id de formations
|
||||||
|
(tous départements, ou du département indiqué dans la route)
|
||||||
|
|
||||||
Exemple de résultat : [ 17, 99, 32 ]
|
Exemple de résultat : [ 17, 99, 32 ]
|
||||||
"""
|
"""
|
||||||
|
@ -328,6 +329,8 @@ def desassoc_ue_niveau(ue_id: int):
|
||||||
ue.niveau_competence = None
|
ue.niveau_competence = None
|
||||||
db.session.add(ue)
|
db.session.add(ue)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
|
# Invalidation du cache
|
||||||
|
ue.formation.invalidate_cached_sems()
|
||||||
log(f"desassoc_ue_niveau: {ue}")
|
log(f"desassoc_ue_niveau: {ue}")
|
||||||
if g.scodoc_dept:
|
if g.scodoc_dept:
|
||||||
# "usage web"
|
# "usage web"
|
||||||
|
|
|
@ -12,7 +12,7 @@ from operator import attrgetter, itemgetter
|
||||||
from flask import g, make_response, request
|
from flask import g, make_response, request
|
||||||
from flask_json import as_json
|
from flask_json import as_json
|
||||||
from flask_login import current_user, login_required
|
from flask_login import current_user, login_required
|
||||||
|
import sqlalchemy as sa
|
||||||
import app
|
import app
|
||||||
from app import db
|
from app import db
|
||||||
from app.api import api_bp as bp, api_web_bp, API_CLIENT_ERROR
|
from app.api import api_bp as bp, api_web_bp, API_CLIENT_ERROR
|
||||||
|
@ -38,7 +38,7 @@ from app.scodoc import sco_groups
|
||||||
from app.scodoc.sco_permissions import Permission
|
from app.scodoc.sco_permissions import Permission
|
||||||
from app.scodoc.sco_utils import ModuleType
|
from app.scodoc.sco_utils import ModuleType
|
||||||
import app.scodoc.sco_utils as scu
|
import app.scodoc.sco_utils as scu
|
||||||
from app.tables.recap import TableRecap
|
from app.tables.recap import TableRecap, RowRecap
|
||||||
|
|
||||||
|
|
||||||
@bp.route("/formsemestre/<int:formsemestre_id>")
|
@bp.route("/formsemestre/<int:formsemestre_id>")
|
||||||
|
@ -171,6 +171,44 @@ def formsemestres_query():
|
||||||
]
|
]
|
||||||
|
|
||||||
|
|
||||||
|
@bp.route("/formsemestre/<int:formsemestre_id>/edit", methods=["POST"])
|
||||||
|
@api_web_bp.route("/formsemestre/<int:formsemestre_id>/edit", methods=["POST"])
|
||||||
|
@scodoc
|
||||||
|
@permission_required(Permission.EditFormSemestre)
|
||||||
|
@as_json
|
||||||
|
def formsemestre_edit(formsemestre_id: int):
|
||||||
|
"""Modifie les champs d'un formsemestre."""
|
||||||
|
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
||||||
|
args = request.get_json(force=True) # may raise 400 Bad Request
|
||||||
|
editable_keys = {
|
||||||
|
"semestre_id",
|
||||||
|
"titre",
|
||||||
|
"date_debut",
|
||||||
|
"date_fin",
|
||||||
|
"edt_id",
|
||||||
|
"etat",
|
||||||
|
"modalite",
|
||||||
|
"gestion_compensation",
|
||||||
|
"bul_hide_xml",
|
||||||
|
"block_moyennes",
|
||||||
|
"block_moyenne_generale",
|
||||||
|
"mode_calcul_moyennes",
|
||||||
|
"gestion_semestrielle",
|
||||||
|
"bul_bgcolor",
|
||||||
|
"resp_can_edit",
|
||||||
|
"resp_can_change_ens",
|
||||||
|
"ens_can_edit_eval",
|
||||||
|
"elt_sem_apo",
|
||||||
|
"elt_annee_apo",
|
||||||
|
}
|
||||||
|
formsemestre.from_dict({k: v for (k, v) in args.items() if k in editable_keys})
|
||||||
|
try:
|
||||||
|
db.session.commit()
|
||||||
|
except sa.exc.StatementError as exc:
|
||||||
|
return json_error(404, f"invalid argument(s): {exc.args[0]}")
|
||||||
|
return formsemestre.to_dict_api()
|
||||||
|
|
||||||
|
|
||||||
@bp.route("/formsemestre/<int:formsemestre_id>/bulletins")
|
@bp.route("/formsemestre/<int:formsemestre_id>/bulletins")
|
||||||
@bp.route("/formsemestre/<int:formsemestre_id>/bulletins/<string:version>")
|
@bp.route("/formsemestre/<int:formsemestre_id>/bulletins/<string:version>")
|
||||||
@api_web_bp.route("/formsemestre/<int:formsemestre_id>/bulletins")
|
@api_web_bp.route("/formsemestre/<int:formsemestre_id>/bulletins")
|
||||||
|
@ -468,13 +506,13 @@ def etat_evals(formsemestre_id: int):
|
||||||
date_mediane = notes_sorted[len(notes_sorted) // 2].date
|
date_mediane = notes_sorted[len(notes_sorted) // 2].date
|
||||||
|
|
||||||
eval_dict["saisie_notes"] = {
|
eval_dict["saisie_notes"] = {
|
||||||
"datetime_debut": date_debut.isoformat()
|
"datetime_debut": (
|
||||||
if date_debut is not None
|
date_debut.isoformat() if date_debut is not None else None
|
||||||
else None,
|
),
|
||||||
"datetime_fin": date_fin.isoformat() if date_fin is not None else None,
|
"datetime_fin": date_fin.isoformat() if date_fin is not None else None,
|
||||||
"datetime_mediane": date_mediane.isoformat()
|
"datetime_mediane": (
|
||||||
if date_mediane is not None
|
date_mediane.isoformat() if date_mediane is not None else None
|
||||||
else None,
|
),
|
||||||
}
|
}
|
||||||
|
|
||||||
list_eval.append(eval_dict)
|
list_eval.append(eval_dict)
|
||||||
|
@ -505,16 +543,30 @@ def formsemestre_resultat(formsemestre_id: int):
|
||||||
formsemestre: FormSemestre = query.first_or_404(formsemestre_id)
|
formsemestre: FormSemestre = query.first_or_404(formsemestre_id)
|
||||||
app.set_sco_dept(formsemestre.departement.acronym)
|
app.set_sco_dept(formsemestre.departement.acronym)
|
||||||
res: NotesTableCompat = res_sem.load_formsemestre_results(formsemestre)
|
res: NotesTableCompat = res_sem.load_formsemestre_results(formsemestre)
|
||||||
table = TableRecap(
|
# Ajoute le groupe de chaque partition,
|
||||||
res, convert_values=convert_values, include_evaluations=False, mode_jury=False
|
|
||||||
)
|
|
||||||
# Supprime les champs inutiles (mise en forme)
|
|
||||||
rows = table.to_list()
|
|
||||||
# Ajoute le groupe de chaque partition:
|
|
||||||
etud_groups = sco_groups.get_formsemestre_etuds_groups(formsemestre_id)
|
etud_groups = sco_groups.get_formsemestre_etuds_groups(formsemestre_id)
|
||||||
for row in rows:
|
|
||||||
row["partitions"] = etud_groups.get(row["etudid"], {})
|
|
||||||
|
|
||||||
|
class RowRecapAPI(RowRecap):
|
||||||
|
"""Pour table avec partitions et sort_key"""
|
||||||
|
|
||||||
|
def add_etud_cols(self):
|
||||||
|
"""Ajoute colonnes étudiant: codes, noms"""
|
||||||
|
super().add_etud_cols()
|
||||||
|
self.add_cell("partitions", "partitions", etud_groups.get(self.etud.id, {}))
|
||||||
|
self.add_cell("sort_key", "sort_key", self.etud.sort_key)
|
||||||
|
|
||||||
|
table = TableRecap(
|
||||||
|
res,
|
||||||
|
convert_values=convert_values,
|
||||||
|
include_evaluations=False,
|
||||||
|
mode_jury=False,
|
||||||
|
row_class=RowRecapAPI,
|
||||||
|
)
|
||||||
|
|
||||||
|
rows = table.to_list()
|
||||||
|
|
||||||
|
# for row in rows:
|
||||||
|
# row["partitions"] = etud_groups.get(row["etudid"], {})
|
||||||
return rows
|
return rows
|
||||||
|
|
||||||
|
|
||||||
|
|
|
@ -20,14 +20,8 @@ from app.api import api_bp as bp
|
||||||
from app.api import api_web_bp
|
from app.api import api_web_bp
|
||||||
from app.api import get_model_api_object, tools
|
from app.api import get_model_api_object, tools
|
||||||
from app.decorators import permission_required, scodoc
|
from app.decorators import permission_required, scodoc
|
||||||
from app.models import (
|
from app.models import Identite, Justificatif, Departement, FormSemestre, Scolog
|
||||||
Identite,
|
|
||||||
Justificatif,
|
|
||||||
Departement,
|
|
||||||
FormSemestre,
|
|
||||||
)
|
|
||||||
from app.models.assiduites import (
|
from app.models.assiduites import (
|
||||||
compute_assiduites_justified,
|
|
||||||
get_formsemestre_from_data,
|
get_formsemestre_from_data,
|
||||||
)
|
)
|
||||||
from app.scodoc.sco_archives_justificatifs import JustificatifArchiver
|
from app.scodoc.sco_archives_justificatifs import JustificatifArchiver
|
||||||
|
@ -315,7 +309,6 @@ def justif_create(etudid: int = None, nip=None, ine=None):
|
||||||
|
|
||||||
errors: list[dict] = []
|
errors: list[dict] = []
|
||||||
success: list[dict] = []
|
success: list[dict] = []
|
||||||
justifs: list[Justificatif] = []
|
|
||||||
|
|
||||||
# énumération des justificatifs
|
# énumération des justificatifs
|
||||||
for i, data in enumerate(create_list):
|
for i, data in enumerate(create_list):
|
||||||
|
@ -327,11 +320,9 @@ def justif_create(etudid: int = None, nip=None, ine=None):
|
||||||
errors.append({"indice": i, "message": obj})
|
errors.append({"indice": i, "message": obj})
|
||||||
else:
|
else:
|
||||||
success.append({"indice": i, "message": obj})
|
success.append({"indice": i, "message": obj})
|
||||||
justifs.append(justi)
|
justi.justifier_assiduites()
|
||||||
scass.simple_invalidate_cache(data, etud.id)
|
scass.simple_invalidate_cache(data, etud.id)
|
||||||
|
|
||||||
# Actualisation des assiduités justifiées en fonction de tous les nouveaux justificatifs
|
|
||||||
compute_assiduites_justified(etud.etudid, justifs)
|
|
||||||
return {"errors": errors, "success": success}
|
return {"errors": errors, "success": success}
|
||||||
|
|
||||||
|
|
||||||
|
@ -500,9 +491,16 @@ def justif_edit(justif_id: int):
|
||||||
return json_error(404, err)
|
return json_error(404, err)
|
||||||
|
|
||||||
# Mise à jour du justificatif
|
# Mise à jour du justificatif
|
||||||
|
justificatif_unique.dejustifier_assiduites()
|
||||||
db.session.add(justificatif_unique)
|
db.session.add(justificatif_unique)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
|
|
||||||
|
Scolog.logdb(
|
||||||
|
method="edit_justificatif",
|
||||||
|
etudid=justificatif_unique.etudiant.id,
|
||||||
|
msg=f"justificatif modif: {justificatif_unique}",
|
||||||
|
)
|
||||||
|
|
||||||
# Génération du dictionnaire de retour
|
# Génération du dictionnaire de retour
|
||||||
# La couverture correspond
|
# La couverture correspond
|
||||||
# - aux assiduités précédemment justifiées par le justificatif
|
# - aux assiduités précédemment justifiées par le justificatif
|
||||||
|
@ -510,11 +508,7 @@ def justif_edit(justif_id: int):
|
||||||
retour = {
|
retour = {
|
||||||
"couverture": {
|
"couverture": {
|
||||||
"avant": avant_ids,
|
"avant": avant_ids,
|
||||||
"apres": compute_assiduites_justified(
|
"apres": justificatif_unique.justifier_assiduites(),
|
||||||
justificatif_unique.etudid,
|
|
||||||
[justificatif_unique],
|
|
||||||
True,
|
|
||||||
),
|
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
# Invalide le cache
|
# Invalide le cache
|
||||||
|
@ -591,14 +585,10 @@ def _delete_one(justif_id: int) -> tuple[int, str]:
|
||||||
|
|
||||||
# On invalide le cache
|
# On invalide le cache
|
||||||
scass.simple_invalidate_cache(justificatif_unique.to_dict())
|
scass.simple_invalidate_cache(justificatif_unique.to_dict())
|
||||||
|
# On actualise les assiduités justifiées de l'étudiant concerné
|
||||||
|
justificatif_unique.dejustifier_assiduites()
|
||||||
# On supprime le justificatif
|
# On supprime le justificatif
|
||||||
db.session.delete(justificatif_unique)
|
db.session.delete(justificatif_unique)
|
||||||
# On actualise les assiduités justifiées de l'étudiant concerné
|
|
||||||
compute_assiduites_justified(
|
|
||||||
justificatif_unique.etudid,
|
|
||||||
Justificatif.query.filter_by(etudid=justificatif_unique.etudid).all(),
|
|
||||||
True,
|
|
||||||
)
|
|
||||||
|
|
||||||
return (200, "OK")
|
return (200, "OK")
|
||||||
|
|
||||||
|
@ -699,7 +689,6 @@ def justif_export(justif_id: int | None = None, filename: str | None = None):
|
||||||
@as_json
|
@as_json
|
||||||
@permission_required(Permission.AbsChange)
|
@permission_required(Permission.AbsChange)
|
||||||
def justif_remove(justif_id: int = None):
|
def justif_remove(justif_id: int = None):
|
||||||
# XXX TODO pas de test unitaire
|
|
||||||
"""
|
"""
|
||||||
Supression d'un fichier ou d'une archive
|
Supression d'un fichier ou d'une archive
|
||||||
{
|
{
|
||||||
|
|
|
@ -603,8 +603,19 @@ class Role(db.Model):
|
||||||
"""Create default roles if missing, then, if reset_permissions,
|
"""Create default roles if missing, then, if reset_permissions,
|
||||||
reset their permissions to default values.
|
reset their permissions to default values.
|
||||||
"""
|
"""
|
||||||
|
Role.reset_roles_permissions(
|
||||||
|
SCO_ROLES_DEFAULTS, reset_permissions=reset_permissions
|
||||||
|
)
|
||||||
|
|
||||||
|
@staticmethod
|
||||||
|
def reset_roles_permissions(roles_perms: dict[str, tuple], reset_permissions=True):
|
||||||
|
"""Ajoute les permissions aux roles
|
||||||
|
roles_perms : { "role_name" : (permission, ...) }
|
||||||
|
reset_permissions : si vrai efface permissions déja existantes
|
||||||
|
Si le role n'existe pas, il est (re) créé.
|
||||||
|
"""
|
||||||
default_role = "Observateur"
|
default_role = "Observateur"
|
||||||
for role_name, permissions in SCO_ROLES_DEFAULTS.items():
|
for role_name, permissions in roles_perms.items():
|
||||||
role = Role.query.filter_by(name=role_name).first()
|
role = Role.query.filter_by(name=role_name).first()
|
||||||
if role is None:
|
if role is None:
|
||||||
role = Role(name=role_name)
|
role = Role(name=role_name)
|
||||||
|
|
|
@ -21,7 +21,7 @@ def form_ue_choix_parcours(ue: UniteEns) -> str:
|
||||||
return ""
|
return ""
|
||||||
ref_comp = ue.formation.referentiel_competence
|
ref_comp = ue.formation.referentiel_competence
|
||||||
if ref_comp is None:
|
if ref_comp is None:
|
||||||
return f"""<div class="ue_advanced">
|
return f"""<div class="scobox ue_advanced">
|
||||||
<div class="warning">Pas de référentiel de compétence associé à cette formation !</div>
|
<div class="warning">Pas de référentiel de compétence associé à cette formation !</div>
|
||||||
<div><a class="stdlink" href="{ url_for('notes.refcomp_assoc_formation',
|
<div><a class="stdlink" href="{ url_for('notes.refcomp_assoc_formation',
|
||||||
scodoc_dept=g.scodoc_dept, formation_id=ue.formation.id)
|
scodoc_dept=g.scodoc_dept, formation_id=ue.formation.id)
|
||||||
|
@ -31,19 +31,28 @@ def form_ue_choix_parcours(ue: UniteEns) -> str:
|
||||||
|
|
||||||
H = [
|
H = [
|
||||||
"""
|
"""
|
||||||
<div class="ue_advanced">
|
<div class="scobox ue_advanced">
|
||||||
<h3>Parcours du BUT</h3>
|
<div class="scobox-title">Parcours du BUT</div>
|
||||||
"""
|
"""
|
||||||
]
|
]
|
||||||
# Choix des parcours
|
# Choix des parcours
|
||||||
ue_pids = [p.id for p in ue.parcours]
|
ue_pids = [p.id for p in ue.parcours]
|
||||||
H.append("""<form id="choix_parcours">""")
|
H.append(
|
||||||
|
"""
|
||||||
|
<div class="help">
|
||||||
|
Cocher tous les parcours dans lesquels cette UE est utilisée,
|
||||||
|
même si vous n'offrez pas ce parcours dans votre département.
|
||||||
|
Sans quoi, les UEs de Tronc Commun ne seront pas reconnues.
|
||||||
|
Ne cocher aucun parcours est équivalent à tous les cocher.
|
||||||
|
</div>
|
||||||
|
<form id="choix_parcours" style="margin-top: 12px;">
|
||||||
|
"""
|
||||||
|
)
|
||||||
|
|
||||||
ects_differents = {
|
ects_differents = {
|
||||||
ue.get_ects(parcour, only_parcours=True) for parcour in ref_comp.parcours
|
ue.get_ects(parcour, only_parcours=True) for parcour in ref_comp.parcours
|
||||||
} != {None}
|
} != {None}
|
||||||
for parcour in ref_comp.parcours:
|
for parcour in ref_comp.parcours:
|
||||||
ects_parcour = ue.get_ects(parcour)
|
|
||||||
ects_parcour_txt = (
|
ects_parcour_txt = (
|
||||||
f" ({ue.get_ects(parcour):.3g} ects)" if ects_differents else ""
|
f" ({ue.get_ects(parcour):.3g} ects)" if ects_differents else ""
|
||||||
)
|
)
|
||||||
|
|
|
@ -9,12 +9,14 @@
|
||||||
|
|
||||||
import collections
|
import collections
|
||||||
import datetime
|
import datetime
|
||||||
|
import pandas as pd
|
||||||
import numpy as np
|
import numpy as np
|
||||||
from flask import g, has_request_context, url_for
|
from flask import g, has_request_context, url_for
|
||||||
|
|
||||||
from app import db
|
from app import db
|
||||||
|
from app.comp.moy_mod import ModuleImplResults
|
||||||
from app.comp.res_but import ResultatsSemestreBUT
|
from app.comp.res_but import ResultatsSemestreBUT
|
||||||
from app.models import Evaluation, FormSemestre, Identite
|
from app.models import Evaluation, FormSemestre, Identite, ModuleImpl
|
||||||
from app.models.groups import GroupDescr
|
from app.models.groups import GroupDescr
|
||||||
from app.models.ues import UniteEns
|
from app.models.ues import UniteEns
|
||||||
from app.scodoc import sco_bulletins, sco_utils as scu
|
from app.scodoc import sco_bulletins, sco_utils as scu
|
||||||
|
@ -229,7 +231,7 @@ class BulletinBUT:
|
||||||
if res.modimpl_inscr_df[modimpl.id][etud.id]: # si inscrit
|
if res.modimpl_inscr_df[modimpl.id][etud.id]: # si inscrit
|
||||||
d[modimpl.module.code] = {
|
d[modimpl.module.code] = {
|
||||||
"id": modimpl.id,
|
"id": modimpl.id,
|
||||||
"titre": modimpl.module.titre,
|
"titre": modimpl.module.titre_str(),
|
||||||
"code_apogee": modimpl.module.code_apogee,
|
"code_apogee": modimpl.module.code_apogee,
|
||||||
"url": (
|
"url": (
|
||||||
url_for(
|
url_for(
|
||||||
|
@ -249,59 +251,88 @@ class BulletinBUT:
|
||||||
# "moy": fmt_note(moyennes_etuds.mean()),
|
# "moy": fmt_note(moyennes_etuds.mean()),
|
||||||
},
|
},
|
||||||
"evaluations": (
|
"evaluations": (
|
||||||
[
|
self.etud_list_modimpl_evaluations(
|
||||||
self.etud_eval_results(etud, e)
|
etud, modimpl, modimpl_results, version
|
||||||
for e in modimpl.evaluations
|
)
|
||||||
if (e.visibulletin or version == "long")
|
|
||||||
and (e.id in modimpl_results.evaluations_etat)
|
|
||||||
and (
|
|
||||||
modimpl_results.evaluations_etat[e.id].is_complete
|
|
||||||
or self.prefs["bul_show_all_evals"]
|
|
||||||
)
|
|
||||||
]
|
|
||||||
if version != "short"
|
if version != "short"
|
||||||
else []
|
else []
|
||||||
),
|
),
|
||||||
}
|
}
|
||||||
return d
|
return d
|
||||||
|
|
||||||
def etud_eval_results(self, etud, e: Evaluation) -> dict:
|
def etud_list_modimpl_evaluations(
|
||||||
|
self,
|
||||||
|
etud: Identite,
|
||||||
|
modimpl: ModuleImpl,
|
||||||
|
modimpl_results: ModuleImplResults,
|
||||||
|
version: str,
|
||||||
|
) -> list[dict]:
|
||||||
|
"""Liste des résultats aux évaluations de ce modimpl à montrer pour cet étudiant"""
|
||||||
|
evaluation: Evaluation
|
||||||
|
eval_results = []
|
||||||
|
for evaluation in modimpl.evaluations:
|
||||||
|
if (
|
||||||
|
(evaluation.visibulletin or version == "long")
|
||||||
|
and (evaluation.id in modimpl_results.evaluations_etat)
|
||||||
|
and (
|
||||||
|
modimpl_results.evaluations_etat[evaluation.id].is_complete
|
||||||
|
or self.prefs["bul_show_all_evals"]
|
||||||
|
)
|
||||||
|
):
|
||||||
|
eval_notes = self.res.modimpls_results[modimpl.id].evals_notes[
|
||||||
|
evaluation.id
|
||||||
|
]
|
||||||
|
|
||||||
|
if (evaluation.evaluation_type == Evaluation.EVALUATION_NORMALE) or (
|
||||||
|
not np.isnan(eval_notes[etud.id])
|
||||||
|
):
|
||||||
|
eval_results.append(
|
||||||
|
self.etud_eval_results(etud, evaluation, eval_notes)
|
||||||
|
)
|
||||||
|
return eval_results
|
||||||
|
|
||||||
|
def etud_eval_results(
|
||||||
|
self, etud: Identite, evaluation: Evaluation, eval_notes: pd.DataFrame
|
||||||
|
) -> dict:
|
||||||
"dict resultats d'un étudiant à une évaluation"
|
"dict resultats d'un étudiant à une évaluation"
|
||||||
# eval_notes est une pd.Series avec toutes les notes des étudiants inscrits
|
# eval_notes est une pd.Series avec toutes les notes des étudiants inscrits
|
||||||
eval_notes = self.res.modimpls_results[e.moduleimpl_id].evals_notes[e.id]
|
|
||||||
notes_ok = eval_notes.where(eval_notes > scu.NOTES_ABSENCE).dropna()
|
notes_ok = eval_notes.where(eval_notes > scu.NOTES_ABSENCE).dropna()
|
||||||
modimpls_evals_poids = self.res.modimpls_evals_poids[e.moduleimpl_id]
|
modimpls_evals_poids = self.res.modimpls_evals_poids[evaluation.moduleimpl_id]
|
||||||
try:
|
try:
|
||||||
etud_ues_ids = self.res.etud_ues_ids(etud.id)
|
etud_ues_ids = self.res.etud_ues_ids(etud.id)
|
||||||
poids = {
|
poids = {
|
||||||
ue.acronyme: modimpls_evals_poids[ue.id][e.id]
|
ue.acronyme: modimpls_evals_poids[ue.id][evaluation.id]
|
||||||
for ue in self.res.ues
|
for ue in self.res.ues
|
||||||
if (ue.type != UE_SPORT) and (ue.id in etud_ues_ids)
|
if (ue.type != UE_SPORT) and (ue.id in etud_ues_ids)
|
||||||
}
|
}
|
||||||
except KeyError:
|
except KeyError:
|
||||||
poids = collections.defaultdict(lambda: 0.0)
|
poids = collections.defaultdict(lambda: 0.0)
|
||||||
d = {
|
d = {
|
||||||
"id": e.id,
|
"id": evaluation.id,
|
||||||
"coef": (
|
"coef": (
|
||||||
fmt_note(e.coefficient)
|
fmt_note(evaluation.coefficient)
|
||||||
if e.evaluation_type == Evaluation.EVALUATION_NORMALE
|
if evaluation.evaluation_type == Evaluation.EVALUATION_NORMALE
|
||||||
else None
|
else None
|
||||||
),
|
),
|
||||||
"date_debut": e.date_debut.isoformat() if e.date_debut else None,
|
"date_debut": (
|
||||||
"date_fin": e.date_fin.isoformat() if e.date_fin else None,
|
evaluation.date_debut.isoformat() if evaluation.date_debut else None
|
||||||
"description": e.description,
|
),
|
||||||
"evaluation_type": e.evaluation_type,
|
"date_fin": (
|
||||||
|
evaluation.date_fin.isoformat() if evaluation.date_fin else None
|
||||||
|
),
|
||||||
|
"description": evaluation.description,
|
||||||
|
"evaluation_type": evaluation.evaluation_type,
|
||||||
"note": (
|
"note": (
|
||||||
{
|
{
|
||||||
"value": fmt_note(
|
"value": fmt_note(
|
||||||
eval_notes[etud.id],
|
eval_notes[etud.id],
|
||||||
note_max=e.note_max,
|
note_max=evaluation.note_max,
|
||||||
),
|
),
|
||||||
"min": fmt_note(notes_ok.min(), note_max=e.note_max),
|
"min": fmt_note(notes_ok.min(), note_max=evaluation.note_max),
|
||||||
"max": fmt_note(notes_ok.max(), note_max=e.note_max),
|
"max": fmt_note(notes_ok.max(), note_max=evaluation.note_max),
|
||||||
"moy": fmt_note(notes_ok.mean(), note_max=e.note_max),
|
"moy": fmt_note(notes_ok.mean(), note_max=evaluation.note_max),
|
||||||
}
|
}
|
||||||
if not e.is_blocked()
|
if not evaluation.is_blocked()
|
||||||
else {}
|
else {}
|
||||||
),
|
),
|
||||||
"poids": poids,
|
"poids": poids,
|
||||||
|
@ -309,17 +340,25 @@ class BulletinBUT:
|
||||||
url_for(
|
url_for(
|
||||||
"notes.evaluation_listenotes",
|
"notes.evaluation_listenotes",
|
||||||
scodoc_dept=g.scodoc_dept,
|
scodoc_dept=g.scodoc_dept,
|
||||||
evaluation_id=e.id,
|
evaluation_id=evaluation.id,
|
||||||
)
|
)
|
||||||
if has_request_context()
|
if has_request_context()
|
||||||
else "na"
|
else "na"
|
||||||
),
|
),
|
||||||
# deprecated (supprimer avant #sco9.7)
|
# deprecated (supprimer avant #sco9.7)
|
||||||
"date": e.date_debut.isoformat() if e.date_debut else None,
|
"date": (
|
||||||
"heure_debut": (
|
evaluation.date_debut.isoformat() if evaluation.date_debut else None
|
||||||
e.date_debut.time().isoformat("minutes") if e.date_debut else None
|
),
|
||||||
|
"heure_debut": (
|
||||||
|
evaluation.date_debut.time().isoformat("minutes")
|
||||||
|
if evaluation.date_debut
|
||||||
|
else None
|
||||||
|
),
|
||||||
|
"heure_fin": (
|
||||||
|
evaluation.date_fin.time().isoformat("minutes")
|
||||||
|
if evaluation.date_fin
|
||||||
|
else None
|
||||||
),
|
),
|
||||||
"heure_fin": e.date_fin.time().isoformat("minutes") if e.date_fin else None,
|
|
||||||
}
|
}
|
||||||
return d
|
return d
|
||||||
|
|
||||||
|
@ -359,7 +398,7 @@ class BulletinBUT:
|
||||||
"short" : ne descend pas plus bas que les modules.
|
"short" : ne descend pas plus bas que les modules.
|
||||||
|
|
||||||
- Si force_publishing, rempli le bulletin même si bul_hide_xml est vrai
|
- Si force_publishing, rempli le bulletin même si bul_hide_xml est vrai
|
||||||
(bulletins non publiés).
|
(bulletins non publiés sur la passerelle).
|
||||||
"""
|
"""
|
||||||
if version not in scu.BULLETINS_VERSIONS_BUT:
|
if version not in scu.BULLETINS_VERSIONS_BUT:
|
||||||
raise ScoValueError("bulletin_etud: version de bulletin demandée invalide")
|
raise ScoValueError("bulletin_etud: version de bulletin demandée invalide")
|
||||||
|
@ -393,7 +432,7 @@ class BulletinBUT:
|
||||||
else:
|
else:
|
||||||
etud_ues_ids = res.etud_ues_ids(etud.id)
|
etud_ues_ids = res.etud_ues_ids(etud.id)
|
||||||
|
|
||||||
nbabs, nbabsjust = formsemestre.get_abs_count(etud.id)
|
nbabsnj, nbabsjust, nbabs = formsemestre.get_abs_count(etud.id)
|
||||||
etud_groups = sco_groups.get_etud_formsemestre_groups(
|
etud_groups = sco_groups.get_etud_formsemestre_groups(
|
||||||
etud, formsemestre, only_to_show=True
|
etud, formsemestre, only_to_show=True
|
||||||
)
|
)
|
||||||
|
@ -408,7 +447,7 @@ class BulletinBUT:
|
||||||
}
|
}
|
||||||
if self.prefs["bul_show_abs"]:
|
if self.prefs["bul_show_abs"]:
|
||||||
semestre_infos["absences"] = {
|
semestre_infos["absences"] = {
|
||||||
"injustifie": nbabs - nbabsjust,
|
"injustifie": nbabsnj,
|
||||||
"total": nbabs,
|
"total": nbabs,
|
||||||
"metrique": {
|
"metrique": {
|
||||||
"H.": "Heure(s)",
|
"H.": "Heure(s)",
|
||||||
|
@ -525,7 +564,7 @@ class BulletinBUT:
|
||||||
d["demission"] = ""
|
d["demission"] = ""
|
||||||
|
|
||||||
# --- Absences
|
# --- Absences
|
||||||
d["nbabs"], d["nbabsjust"] = self.res.formsemestre.get_abs_count(etud.id)
|
_, d["nbabsjust"], d["nbabs"] = self.res.formsemestre.get_abs_count(etud.id)
|
||||||
|
|
||||||
# --- Decision Jury
|
# --- Decision Jury
|
||||||
infos, _ = sco_bulletins.etud_descr_situation_semestre(
|
infos, _ = sco_bulletins.etud_descr_situation_semestre(
|
||||||
|
|
|
@ -124,7 +124,9 @@ def _build_bulletin_but_infos(
|
||||||
formsemestre, bulletins_sem.res
|
formsemestre, bulletins_sem.res
|
||||||
)
|
)
|
||||||
if warn_html:
|
if warn_html:
|
||||||
raise ScoValueError("<b>Formation mal configurée pour le BUT</b>" + warn_html)
|
raise ScoValueError(
|
||||||
|
"<b>Formation mal configurée pour le BUT</b>" + warn_html, safe=True
|
||||||
|
)
|
||||||
ue_validation_by_niveau = validations_view.get_ue_validation_by_niveau(
|
ue_validation_by_niveau = validations_view.get_ue_validation_by_niveau(
|
||||||
refcomp, etud
|
refcomp, etud
|
||||||
)
|
)
|
||||||
|
|
|
@ -31,6 +31,7 @@ from app.scodoc.sco_bulletins_standard import BulletinGeneratorStandard
|
||||||
from app.scodoc.sco_logos import Logo
|
from app.scodoc.sco_logos import Logo
|
||||||
from app.scodoc.sco_pdf import PDFLOCK, SU
|
from app.scodoc.sco_pdf import PDFLOCK, SU
|
||||||
from app.scodoc.sco_preferences import SemPreferences
|
from app.scodoc.sco_preferences import SemPreferences
|
||||||
|
from app.scodoc import sco_utils as scu
|
||||||
|
|
||||||
|
|
||||||
def make_bulletin_but_court_pdf(
|
def make_bulletin_but_court_pdf(
|
||||||
|
@ -343,9 +344,11 @@ class BulletinGeneratorBUTCourt(BulletinGeneratorStandard):
|
||||||
for mod in self.bul[mod_type]:
|
for mod in self.bul[mod_type]:
|
||||||
row = [mod, bul[mod_type][mod]["titre"]]
|
row = [mod, bul[mod_type][mod]["titre"]]
|
||||||
row += [
|
row += [
|
||||||
bul["ues"][ue][mod_type][mod]["moyenne"]
|
(
|
||||||
if mod in bul["ues"][ue][mod_type]
|
bul["ues"][ue][mod_type][mod]["moyenne"]
|
||||||
else ""
|
if mod in bul["ues"][ue][mod_type]
|
||||||
|
else ""
|
||||||
|
)
|
||||||
for ue in self.ues_acronyms
|
for ue in self.ues_acronyms
|
||||||
]
|
]
|
||||||
rows.append(row)
|
rows.append(row)
|
||||||
|
@ -523,7 +526,7 @@ class BulletinGeneratorBUTCourt(BulletinGeneratorStandard):
|
||||||
if self.bul["semestre"].get("decision_annee", None):
|
if self.bul["semestre"].get("decision_annee", None):
|
||||||
txt += f"""
|
txt += f"""
|
||||||
Décision saisie le {
|
Décision saisie le {
|
||||||
datetime.datetime.fromisoformat(self.bul["semestre"]["decision_annee"]["date"]).strftime("%d/%m/%Y")
|
datetime.datetime.fromisoformat(self.bul["semestre"]["decision_annee"]["date"]).strftime(scu.DATE_FMT)
|
||||||
}, année BUT{self.bul["semestre"]["decision_annee"]["ordre"]}
|
}, année BUT{self.bul["semestre"]["decision_annee"]["ordre"]}
|
||||||
<b>{self.bul["semestre"]["decision_annee"]["code"]}</b>.
|
<b>{self.bul["semestre"]["decision_annee"]["code"]}</b>.
|
||||||
<br/>
|
<br/>
|
||||||
|
|
|
@ -73,6 +73,7 @@ class BulletinGeneratorStandardBUT(BulletinGeneratorStandard):
|
||||||
html_class="notes_bulletin",
|
html_class="notes_bulletin",
|
||||||
html_class_ignore_default=True,
|
html_class_ignore_default=True,
|
||||||
html_with_td_classes=True,
|
html_with_td_classes=True,
|
||||||
|
table_id="bul-table",
|
||||||
)
|
)
|
||||||
table_objects = table.gen(fmt=fmt)
|
table_objects = table.gen(fmt=fmt)
|
||||||
objects += table_objects
|
objects += table_objects
|
||||||
|
@ -269,7 +270,7 @@ class BulletinGeneratorStandardBUT(BulletinGeneratorStandard):
|
||||||
date_capitalisation = ue.get("date_capitalisation")
|
date_capitalisation = ue.get("date_capitalisation")
|
||||||
if date_capitalisation:
|
if date_capitalisation:
|
||||||
fields_bmr.append(
|
fields_bmr.append(
|
||||||
f"""Capitalisée le {date_capitalisation.strftime("%d/%m/%Y")}"""
|
f"""Capitalisée le {date_capitalisation.strftime(scu.DATE_FMT)}"""
|
||||||
)
|
)
|
||||||
t = {
|
t = {
|
||||||
"titre": " - ".join(fields_bmr),
|
"titre": " - ".join(fields_bmr),
|
||||||
|
@ -427,12 +428,11 @@ class BulletinGeneratorStandardBUT(BulletinGeneratorStandard):
|
||||||
if e["evaluation_type"] == Evaluation.EVALUATION_NORMALE
|
if e["evaluation_type"] == Evaluation.EVALUATION_NORMALE
|
||||||
else "*"
|
else "*"
|
||||||
)
|
)
|
||||||
|
note_value = e["note"].get("value", "")
|
||||||
t = {
|
t = {
|
||||||
"titre": f"{e['description'] or ''}",
|
"titre": f"{e['description'] or ''}",
|
||||||
"moyenne": e["note"]["value"],
|
"moyenne": note_value,
|
||||||
"_moyenne_pdf": Paragraph(
|
"_moyenne_pdf": Paragraph(f"""<para align=right>{note_value}</para>"""),
|
||||||
f"""<para align=right>{e["note"]["value"]}</para>"""
|
|
||||||
),
|
|
||||||
"coef": coef,
|
"coef": coef,
|
||||||
"_coef_pdf": Paragraph(
|
"_coef_pdf": Paragraph(
|
||||||
f"""<para align=right fontSize={self.small_fontsize}><i>{
|
f"""<para align=right fontSize={self.small_fontsize}><i>{
|
||||||
|
|
|
@ -241,7 +241,7 @@ def bulletin_but_xml_compat(
|
||||||
|
|
||||||
# --- Absences
|
# --- Absences
|
||||||
if sco_preferences.get_preference("bul_show_abs", formsemestre_id):
|
if sco_preferences.get_preference("bul_show_abs", formsemestre_id):
|
||||||
nbabs, nbabsjust = formsemestre.get_abs_count(etud.id)
|
_, nbabsjust, nbabs = formsemestre.get_abs_count(etud.id)
|
||||||
doc.append(Element("absences", nbabs=str(nbabs), nbabsjust=str(nbabsjust)))
|
doc.append(Element("absences", nbabs=str(nbabs), nbabsjust=str(nbabsjust)))
|
||||||
|
|
||||||
# -------- LA SUITE EST COPIEE SANS MODIF DE sco_bulletins_xml.py ---------
|
# -------- LA SUITE EST COPIEE SANS MODIF DE sco_bulletins_xml.py ---------
|
||||||
|
|
92
app/but/change_refcomp.py
Normal file
92
app/but/change_refcomp.py
Normal file
|
@ -0,0 +1,92 @@
|
||||||
|
##############################################################################
|
||||||
|
# ScoDoc
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
# See LICENSE
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""Code expérimental: si deux référentiel sont presques identiques
|
||||||
|
(mêmes compétences, niveaux, parcours)
|
||||||
|
essaie de changer une formation de référentiel.
|
||||||
|
"""
|
||||||
|
|
||||||
|
from app import clear_scodoc_cache, db
|
||||||
|
|
||||||
|
from app.models import (
|
||||||
|
ApcParcours,
|
||||||
|
ApcReferentielCompetences,
|
||||||
|
ApcValidationRCUE,
|
||||||
|
Formation,
|
||||||
|
FormSemestreInscription,
|
||||||
|
UniteEns,
|
||||||
|
)
|
||||||
|
from app.scodoc.sco_exceptions import ScoValueError
|
||||||
|
|
||||||
|
|
||||||
|
def formation_change_referentiel(
|
||||||
|
formation: Formation, new_ref: ApcReferentielCompetences
|
||||||
|
):
|
||||||
|
"""Try to change ref."""
|
||||||
|
if not formation.referentiel_competence:
|
||||||
|
raise ScoValueError("formation non associée à un référentiel")
|
||||||
|
if not isinstance(new_ref, ApcReferentielCompetences):
|
||||||
|
raise ScoValueError("nouveau référentiel invalide")
|
||||||
|
|
||||||
|
r = formation.referentiel_competence.map_to_other_referentiel(new_ref)
|
||||||
|
if isinstance(r, str):
|
||||||
|
raise ScoValueError(f"référentiels incompatibles: {r}")
|
||||||
|
parcours_map, competences_map, niveaux_map = r
|
||||||
|
|
||||||
|
formation.referentiel_competence = new_ref
|
||||||
|
db.session.add(formation)
|
||||||
|
# UEs - Niveaux et UEs - parcours
|
||||||
|
for ue in formation.ues:
|
||||||
|
if ue.niveau_competence:
|
||||||
|
ue.niveau_competence_id = niveaux_map[ue.niveau_competence_id]
|
||||||
|
db.session.add(ue)
|
||||||
|
if ue.parcours:
|
||||||
|
new_list = [ApcParcours.query.get(parcours_map[p.id]) for p in ue.parcours]
|
||||||
|
ue.parcours.clear()
|
||||||
|
ue.parcours.extend(new_list)
|
||||||
|
db.session.add(ue)
|
||||||
|
# Modules / parcours et app_critiques
|
||||||
|
for module in formation.modules:
|
||||||
|
if module.parcours:
|
||||||
|
new_list = [
|
||||||
|
ApcParcours.query.get(parcours_map[p.id]) for p in module.parcours
|
||||||
|
]
|
||||||
|
module.parcours.clear()
|
||||||
|
module.parcours.extend(new_list)
|
||||||
|
db.session.add(module)
|
||||||
|
if module.app_critiques: # efface les apprentissages critiques
|
||||||
|
module.app_critiques.clear()
|
||||||
|
db.session.add(module)
|
||||||
|
# ApcValidationRCUE
|
||||||
|
for valid_rcue in ApcValidationRCUE.query.join(
|
||||||
|
UniteEns, UniteEns.id == ApcValidationRCUE.ue1_id
|
||||||
|
).filter_by(formation_id=formation.id):
|
||||||
|
if valid_rcue.parcour:
|
||||||
|
valid_rcue.parcour_id = parcours_map[valid_rcue.parcour.id]
|
||||||
|
db.session.add(valid_rcue)
|
||||||
|
for valid_rcue in ApcValidationRCUE.query.join(
|
||||||
|
UniteEns, UniteEns.id == ApcValidationRCUE.ue2_id
|
||||||
|
).filter_by(formation_id=formation.id):
|
||||||
|
if valid_rcue.parcour:
|
||||||
|
valid_rcue.parcour_id = parcours_map[valid_rcue.parcour.id]
|
||||||
|
db.session.add(valid_rcue)
|
||||||
|
# FormSemestre / parcours_formsemestre
|
||||||
|
for formsemestre in formation.formsemestres:
|
||||||
|
new_list = [
|
||||||
|
ApcParcours.query.get(parcours_map[p.id]) for p in formsemestre.parcours
|
||||||
|
]
|
||||||
|
formsemestre.parcours.clear()
|
||||||
|
formsemestre.parcours.extend(new_list)
|
||||||
|
db.session.add(formsemestre)
|
||||||
|
# FormSemestreInscription.parcour_id
|
||||||
|
for inscr in FormSemestreInscription.query.filter_by(
|
||||||
|
formsemestre_id=formsemestre.id
|
||||||
|
).filter(FormSemestreInscription.parcour_id != None):
|
||||||
|
if inscr.parcour_id is not None:
|
||||||
|
inscr.parcour_id = parcours_map[inscr.parcour_id]
|
||||||
|
#
|
||||||
|
db.session.commit()
|
||||||
|
clear_scodoc_cache()
|
|
@ -114,10 +114,13 @@ class EtudCursusBUT:
|
||||||
validation_rcue: ApcValidationRCUE
|
validation_rcue: ApcValidationRCUE
|
||||||
for validation_rcue in ApcValidationRCUE.query.filter_by(etud=etud):
|
for validation_rcue in ApcValidationRCUE.query.filter_by(etud=etud):
|
||||||
niveau = validation_rcue.niveau()
|
niveau = validation_rcue.niveau()
|
||||||
if (
|
if niveau is None:
|
||||||
niveau is None
|
raise ScoValueError(
|
||||||
or not niveau.competence.id in self.validation_par_competence_et_annee
|
"""UE d'un RCUE non associée à un niveau de compétence.
|
||||||
):
|
Vérifiez la formation et les associations de ses UEs.
|
||||||
|
"""
|
||||||
|
)
|
||||||
|
if not niveau.competence.id in self.validation_par_competence_et_annee:
|
||||||
self.validation_par_competence_et_annee[niveau.competence.id] = {}
|
self.validation_par_competence_et_annee[niveau.competence.id] = {}
|
||||||
previous_validation = self.validation_par_competence_et_annee.get(
|
previous_validation = self.validation_par_competence_et_annee.get(
|
||||||
niveau.competence.id
|
niveau.competence.id
|
||||||
|
@ -539,9 +542,9 @@ def formation_semestre_niveaux_warning(formation: Formation, semestre_idx: int)
|
||||||
for parcour_code, niveaux in niveaux_sans_ue_by_parcour.items():
|
for parcour_code, niveaux in niveaux_sans_ue_by_parcour.items():
|
||||||
H.append(
|
H.append(
|
||||||
f"""<li>Parcours {parcour_code} : {
|
f"""<li>Parcours {parcour_code} : {
|
||||||
len(niveaux)} niveaux sans UEs
|
len(niveaux)} niveaux sans UEs :
|
||||||
<span>
|
<span class="niveau-nom"><span>
|
||||||
{ ', '.join( f'{niveau.competence.titre} {niveau.ordre}'
|
{ '</span>, <span>'.join( f'{niveau.competence.titre} {niveau.ordre}'
|
||||||
for niveau in niveaux
|
for niveau in niveaux
|
||||||
)
|
)
|
||||||
}
|
}
|
||||||
|
@ -560,7 +563,8 @@ def formation_semestre_niveaux_warning(formation: Formation, semestre_idx: int)
|
||||||
if nb_niveaux_tc != nb_ues_tc:
|
if nb_niveaux_tc != nb_ues_tc:
|
||||||
H.append(
|
H.append(
|
||||||
f"""<li>{nb_niveaux_tc} niveaux de compétences de tronc commun,
|
f"""<li>{nb_niveaux_tc} niveaux de compétences de tronc commun,
|
||||||
mais {nb_ues_tc} UEs de tronc commun !</li>"""
|
mais {nb_ues_tc} UEs de tronc commun ! (c'est normal si
|
||||||
|
vous avez des UEs différenciées par parcours)</li>"""
|
||||||
)
|
)
|
||||||
|
|
||||||
if H:
|
if H:
|
||||||
|
|
|
@ -10,9 +10,11 @@
|
||||||
from flask_wtf import FlaskForm
|
from flask_wtf import FlaskForm
|
||||||
from flask_wtf.file import FileField, FileAllowed
|
from flask_wtf.file import FileField, FileAllowed
|
||||||
from wtforms import SelectField, SubmitField
|
from wtforms import SelectField, SubmitField
|
||||||
|
from wtforms.validators import DataRequired
|
||||||
|
|
||||||
|
|
||||||
class FormationRefCompForm(FlaskForm):
|
class FormationRefCompForm(FlaskForm):
|
||||||
|
"Choix d'un référentiel"
|
||||||
referentiel_competence = SelectField(
|
referentiel_competence = SelectField(
|
||||||
"Choisir parmi les référentiels déjà chargés :"
|
"Choisir parmi les référentiels déjà chargés :"
|
||||||
)
|
)
|
||||||
|
@ -21,6 +23,7 @@ class FormationRefCompForm(FlaskForm):
|
||||||
|
|
||||||
|
|
||||||
class RefCompLoadForm(FlaskForm):
|
class RefCompLoadForm(FlaskForm):
|
||||||
|
"Upload d'un référentiel"
|
||||||
referentiel_standard = SelectField(
|
referentiel_standard = SelectField(
|
||||||
"Choisir un référentiel de compétences officiel BUT"
|
"Choisir un référentiel de compétences officiel BUT"
|
||||||
)
|
)
|
||||||
|
@ -47,3 +50,12 @@ class RefCompLoadForm(FlaskForm):
|
||||||
)
|
)
|
||||||
return False
|
return False
|
||||||
return True
|
return True
|
||||||
|
|
||||||
|
|
||||||
|
class FormationChangeRefCompForm(FlaskForm):
|
||||||
|
"choix d'un nouveau ref. comp. pour une formation"
|
||||||
|
object_select = SelectField(
|
||||||
|
"Choisir le nouveau référentiel", validators=[DataRequired()]
|
||||||
|
)
|
||||||
|
submit = SubmitField("Changer le référentiel de la formation")
|
||||||
|
cancel = SubmitField("Annuler")
|
||||||
|
|
|
@ -23,9 +23,12 @@ from app.models.but_refcomp import (
|
||||||
from app.scodoc.sco_exceptions import ScoFormatError, ScoValueError
|
from app.scodoc.sco_exceptions import ScoFormatError, ScoValueError
|
||||||
|
|
||||||
|
|
||||||
def orebut_import_refcomp(xml_data: str, dept_id: int, orig_filename=None):
|
def orebut_import_refcomp(
|
||||||
|
xml_data: str, dept_id: int, orig_filename=None
|
||||||
|
) -> ApcReferentielCompetences:
|
||||||
"""Importation XML Orébut
|
"""Importation XML Orébut
|
||||||
peut lever TypeError ou ScoFormatError
|
peut lever TypeError ou ScoFormatError
|
||||||
|
L'objet créé est ajouté et commité.
|
||||||
Résultat: instance de ApcReferentielCompetences
|
Résultat: instance de ApcReferentielCompetences
|
||||||
"""
|
"""
|
||||||
# Vérifie que le même fichier n'a pas déjà été chargé:
|
# Vérifie que le même fichier n'a pas déjà été chargé:
|
||||||
|
@ -41,7 +44,7 @@ def orebut_import_refcomp(xml_data: str, dept_id: int, orig_filename=None):
|
||||||
try:
|
try:
|
||||||
root = ElementTree.XML(xml_data)
|
root = ElementTree.XML(xml_data)
|
||||||
except ElementTree.ParseError as exc:
|
except ElementTree.ParseError as exc:
|
||||||
raise ScoFormatError(f"fichier XML Orébut invalide (2): {exc.args}")
|
raise ScoFormatError(f"fichier XML Orébut invalide (2): {exc.args}") from exc
|
||||||
if root.tag != "referentiel_competence":
|
if root.tag != "referentiel_competence":
|
||||||
raise ScoFormatError("élément racine 'referentiel_competence' manquant")
|
raise ScoFormatError("élément racine 'referentiel_competence' manquant")
|
||||||
args = ApcReferentielCompetences.attr_from_xml(root.attrib)
|
args = ApcReferentielCompetences.attr_from_xml(root.attrib)
|
||||||
|
@ -60,7 +63,8 @@ def orebut_import_refcomp(xml_data: str, dept_id: int, orig_filename=None):
|
||||||
# ne devrait plus se produire car pas d'unicité de l'id: donc inutile
|
# ne devrait plus se produire car pas d'unicité de l'id: donc inutile
|
||||||
db.session.rollback()
|
db.session.rollback()
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
f"""Un référentiel a déjà été chargé avec les mêmes compétences ! ({competence.attrib["id"]})
|
f"""Un référentiel a déjà été chargé avec les mêmes compétences ! ({
|
||||||
|
competence.attrib["id"]})
|
||||||
"""
|
"""
|
||||||
) from exc
|
) from exc
|
||||||
ref.competences.append(c)
|
ref.competences.append(c)
|
||||||
|
|
|
@ -77,7 +77,7 @@ from app.models.but_refcomp import (
|
||||||
ApcNiveau,
|
ApcNiveau,
|
||||||
ApcParcours,
|
ApcParcours,
|
||||||
)
|
)
|
||||||
from app.models import Evaluation, Scolog, ScolarAutorisationInscription
|
from app.models import Evaluation, ModuleImpl, Scolog, ScolarAutorisationInscription
|
||||||
from app.models.but_validations import (
|
from app.models.but_validations import (
|
||||||
ApcValidationAnnee,
|
ApcValidationAnnee,
|
||||||
ApcValidationRCUE,
|
ApcValidationRCUE,
|
||||||
|
@ -413,12 +413,12 @@ class DecisionsProposeesAnnee(DecisionsProposees):
|
||||||
# Si validée par niveau supérieur:
|
# Si validée par niveau supérieur:
|
||||||
if self.code_valide == sco_codes.ADSUP:
|
if self.code_valide == sco_codes.ADSUP:
|
||||||
self.codes.insert(0, sco_codes.ADSUP)
|
self.codes.insert(0, sco_codes.ADSUP)
|
||||||
self.explanation = f"<div>{explanation}</div>"
|
self.explanation = f'<div class="deca-expl">{explanation}</div>'
|
||||||
messages = self.descr_pb_coherence()
|
messages = self.descr_pb_coherence()
|
||||||
if messages:
|
if messages:
|
||||||
self.explanation += (
|
self.explanation += (
|
||||||
'<div class="warning">'
|
'<div class="warning warning-info">'
|
||||||
+ '</div><div class="warning">'.join(messages)
|
+ '</div><div class="warning warning-info">'.join(messages)
|
||||||
+ "</div>"
|
+ "</div>"
|
||||||
)
|
)
|
||||||
self.codes = [self.codes[0]] + sorted((c or "") for c in self.codes[1:])
|
self.codes = [self.codes[0]] + sorted((c or "") for c in self.codes[1:])
|
||||||
|
@ -796,16 +796,33 @@ class DecisionsProposeesAnnee(DecisionsProposees):
|
||||||
if self.formsemestre_pair is not None:
|
if self.formsemestre_pair is not None:
|
||||||
sco_cache.invalidate_formsemestre(formsemestre_id=self.formsemestre_pair.id)
|
sco_cache.invalidate_formsemestre(formsemestre_id=self.formsemestre_pair.id)
|
||||||
|
|
||||||
def has_notes_en_attente(self) -> bool:
|
def _get_current_res(self) -> ResultatsSemestreBUT:
|
||||||
"Vrai si l'étudiant a au moins une note en attente dans le semestre origine de ce deca"
|
"Les res. du semestre d'origine du deca"
|
||||||
res = (
|
return (
|
||||||
self.res_pair
|
self.res_pair
|
||||||
if self.formsemestre_pair
|
if self.formsemestre_pair
|
||||||
and (self.formsemestre.id == self.formsemestre_pair.id)
|
and (self.formsemestre.id == self.formsemestre_pair.id)
|
||||||
else self.res_impair
|
else self.res_impair
|
||||||
)
|
)
|
||||||
|
|
||||||
|
def has_notes_en_attente(self) -> bool:
|
||||||
|
"Vrai si l'étudiant a au moins une note en attente dans le semestre origine de ce deca"
|
||||||
|
res = self._get_current_res()
|
||||||
return res and self.etud.id in res.get_etudids_attente()
|
return res and self.etud.id in res.get_etudids_attente()
|
||||||
|
|
||||||
|
def get_modimpls_attente(self) -> list[ModuleImpl]:
|
||||||
|
"Liste des ModuleImpl dans lesquels l'étudiant à au moins une note en ATTente"
|
||||||
|
res = self._get_current_res()
|
||||||
|
modimpls_results = [
|
||||||
|
modimpl_result
|
||||||
|
for modimpl_result in res.modimpls_results.values()
|
||||||
|
if self.etud.id in modimpl_result.etudids_attente
|
||||||
|
]
|
||||||
|
modimpls = [
|
||||||
|
db.session.get(ModuleImpl, mr.moduleimpl_id) for mr in modimpls_results
|
||||||
|
]
|
||||||
|
return sorted(modimpls, key=lambda mi: (mi.module.numero, mi.module.code))
|
||||||
|
|
||||||
def record_all(self, only_validantes: bool = False) -> bool:
|
def record_all(self, only_validantes: bool = False) -> bool:
|
||||||
"""Enregistre les codes qui n'ont pas été spécifiés par le formulaire,
|
"""Enregistre les codes qui n'ont pas été spécifiés par le formulaire,
|
||||||
et sont donc en mode "automatique".
|
et sont donc en mode "automatique".
|
||||||
|
@ -997,19 +1014,23 @@ class DecisionsProposeesAnnee(DecisionsProposees):
|
||||||
if dec_ue.code_valide not in CODES_UE_VALIDES:
|
if dec_ue.code_valide not in CODES_UE_VALIDES:
|
||||||
if (
|
if (
|
||||||
dec_ue.ue_status
|
dec_ue.ue_status
|
||||||
and dec_ue.ue_status["was_capitalized"]
|
and dec_ue.ue_status["is_capitalized"]
|
||||||
):
|
):
|
||||||
messages.append(
|
messages.append(
|
||||||
f"Information: l'UE {ue.acronyme} capitalisée est utilisée pour un RCUE cette année"
|
f"Information: l'UE {ue.acronyme} capitalisée est utilisée pour un RCUE cette année"
|
||||||
)
|
)
|
||||||
else:
|
else:
|
||||||
messages.append(
|
messages.append(
|
||||||
f"L'UE {ue.acronyme} n'est pas validée mais son RCUE l'est !"
|
f"L'UE {ue.acronyme} n'est pas validée mais son RCUE l'est (probablement une validation antérieure)"
|
||||||
)
|
)
|
||||||
else:
|
else:
|
||||||
messages.append(
|
messages.append(
|
||||||
f"L'UE {ue.acronyme} n'a pas décision (???)"
|
f"L'UE {ue.acronyme} n'a pas décision (???)"
|
||||||
)
|
)
|
||||||
|
# Voyons si on est dispensé de cette ue ?
|
||||||
|
res = self.res_impair if ue.semestre_idx % 2 else self.res_pair
|
||||||
|
if res and (self.etud.id, ue.id) in res.dispense_ues:
|
||||||
|
messages.append(f"Pas (ré)inscrit à l'UE {ue.acronyme}")
|
||||||
return messages
|
return messages
|
||||||
|
|
||||||
def valide_diplome(self) -> bool:
|
def valide_diplome(self) -> bool:
|
||||||
|
@ -1514,7 +1535,7 @@ class DecisionsProposeesUE(DecisionsProposees):
|
||||||
|
|
||||||
def __repr__(self) -> str:
|
def __repr__(self) -> str:
|
||||||
return f"""<{self.__class__.__name__} ue={self.ue.acronyme} valid={self.code_valide
|
return f"""<{self.__class__.__name__} ue={self.ue.acronyme} valid={self.code_valide
|
||||||
} codes={self.codes} explanation={self.explanation}>"""
|
} codes={self.codes} explanation="{self.explanation}">"""
|
||||||
|
|
||||||
def compute_codes(self):
|
def compute_codes(self):
|
||||||
"""Calcul des .codes attribuables et de l'explanation associée"""
|
"""Calcul des .codes attribuables et de l'explanation associée"""
|
||||||
|
|
|
@ -55,11 +55,21 @@ def pvjury_page_but(formsemestre_id: int, fmt="html"):
|
||||||
else:
|
else:
|
||||||
line_sep = "\n"
|
line_sep = "\n"
|
||||||
rows, titles = pvjury_table_but(formsemestre, line_sep=line_sep)
|
rows, titles = pvjury_table_but(formsemestre, line_sep=line_sep)
|
||||||
|
if fmt.startswith("xls"):
|
||||||
|
titles.update(
|
||||||
|
{
|
||||||
|
"etudid": "etudid",
|
||||||
|
"code_nip": "nip",
|
||||||
|
"code_ine": "ine",
|
||||||
|
"ects_but": "Total ECTS BUT",
|
||||||
|
"civilite": "Civ.",
|
||||||
|
"nom": "Nom",
|
||||||
|
"prenom": "Prénom",
|
||||||
|
}
|
||||||
|
)
|
||||||
# Style excel... passages à la ligne sur \n
|
# Style excel... passages à la ligne sur \n
|
||||||
xls_style_base = sco_excel.excel_make_style()
|
xls_style_base = sco_excel.excel_make_style()
|
||||||
xls_style_base["alignment"] = Alignment(wrapText=True, vertical="top")
|
xls_style_base["alignment"] = Alignment(wrapText=True, vertical="top")
|
||||||
|
|
||||||
tab = GenTable(
|
tab = GenTable(
|
||||||
base_url=f"{request.base_url}?formsemestre_id={formsemestre_id}",
|
base_url=f"{request.base_url}?formsemestre_id={formsemestre_id}",
|
||||||
caption=title,
|
caption=title,
|
||||||
|
@ -116,7 +126,7 @@ def pvjury_table_but(
|
||||||
"pas de référentiel de compétences associé à la formation de ce semestre !"
|
"pas de référentiel de compétences associé à la formation de ce semestre !"
|
||||||
)
|
)
|
||||||
titles = {
|
titles = {
|
||||||
"nom": "Code" if anonymous else "Nom",
|
"nom_pv": "Code" if anonymous else "Nom",
|
||||||
"cursus": "Cursus",
|
"cursus": "Cursus",
|
||||||
"ects": "ECTS",
|
"ects": "ECTS",
|
||||||
"ues": "UE validées",
|
"ues": "UE validées",
|
||||||
|
@ -144,33 +154,47 @@ def pvjury_table_but(
|
||||||
except ScoValueError:
|
except ScoValueError:
|
||||||
deca = None
|
deca = None
|
||||||
|
|
||||||
|
ects_but_valides = but_ects_valides(etud, referentiel_competence_id)
|
||||||
row = {
|
row = {
|
||||||
"nom": etud.code_ine or etud.code_nip or etud.id
|
"nom_pv": (
|
||||||
if anonymous # Mode anonyme: affiche INE ou sinon NIP, ou id
|
etud.code_ine or etud.code_nip or etud.id
|
||||||
else etud.etat_civil_pv(
|
if anonymous # Mode anonyme: affiche INE ou sinon NIP, ou id
|
||||||
line_sep=line_sep, with_paragraph=with_paragraph_nom
|
else etud.etat_civil_pv(
|
||||||
|
line_sep=line_sep, with_paragraph=with_paragraph_nom
|
||||||
|
)
|
||||||
),
|
),
|
||||||
"_nom_order": etud.sort_key,
|
"_nom_pv_order": etud.sort_key,
|
||||||
"_nom_target_attrs": f'class="etudinfo" id="{etud.id}"',
|
"_nom_pv_target_attrs": f'class="etudinfo" id="{etud.id}"',
|
||||||
"_nom_td_attrs": f'id="{etud.id}" class="etudinfo"',
|
"_nom_pv_td_attrs": f'id="{etud.id}" class="etudinfo"',
|
||||||
"_nom_target": url_for(
|
"_nom_pv_target": url_for(
|
||||||
"scolar.fiche_etud",
|
"scolar.fiche_etud",
|
||||||
scodoc_dept=g.scodoc_dept,
|
scodoc_dept=g.scodoc_dept,
|
||||||
etudid=etud.id,
|
etudid=etud.id,
|
||||||
),
|
),
|
||||||
"cursus": _descr_cursus_but(etud),
|
"cursus": _descr_cursus_but(etud),
|
||||||
"ects": f"""{deca.ects_annee():g}<br><br>Tot. {but_ects_valides(etud, referentiel_competence_id ):g}""",
|
"ects": f"""{deca.ects_annee():g}<br><br>Tot. {ects_but_valides:g}""",
|
||||||
|
"_ects_xls": deca.ects_annee(),
|
||||||
|
"ects_but": ects_but_valides,
|
||||||
"ues": deca.descr_ues_validation(line_sep=line_sep) if deca else "-",
|
"ues": deca.descr_ues_validation(line_sep=line_sep) if deca else "-",
|
||||||
"niveaux": deca.descr_niveaux_validation(line_sep=line_sep)
|
"niveaux": (
|
||||||
if deca
|
deca.descr_niveaux_validation(line_sep=line_sep) if deca else "-"
|
||||||
else "-",
|
),
|
||||||
"decision_but": deca.code_valide if deca else "",
|
"decision_but": deca.code_valide if deca else "",
|
||||||
"devenir": ", ".join([f"S{i}" for i in deca.get_autorisations_passage()])
|
"devenir": (
|
||||||
if deca
|
", ".join([f"S{i}" for i in deca.get_autorisations_passage()])
|
||||||
else "",
|
if deca
|
||||||
|
else ""
|
||||||
|
),
|
||||||
|
# pour exports excel seulement:
|
||||||
|
"civilite": etud.civilite_etat_civil_str,
|
||||||
|
"nom": etud.nom,
|
||||||
|
"prenom": etud.prenom_etat_civil or etud.prenom or "",
|
||||||
|
"etudid": etud.id,
|
||||||
|
"code_nip": etud.code_nip,
|
||||||
|
"code_ine": etud.code_ine,
|
||||||
}
|
}
|
||||||
if deca.valide_diplome() or not only_diplome:
|
if deca.valide_diplome() or not only_diplome:
|
||||||
rows.append(row)
|
rows.append(row)
|
||||||
|
|
||||||
rows.sort(key=lambda x: x["_nom_order"])
|
rows.sort(key=lambda x: x["_nom_pv_order"])
|
||||||
return rows, titles
|
return rows, titles
|
||||||
|
|
|
@ -16,8 +16,8 @@ from app.scodoc.sco_exceptions import ScoValueError
|
||||||
|
|
||||||
|
|
||||||
def formsemestre_validation_auto_but(
|
def formsemestre_validation_auto_but(
|
||||||
formsemestre: FormSemestre, only_adm: bool = True
|
formsemestre: FormSemestre, only_adm: bool = True, dry_run=False
|
||||||
) -> int:
|
) -> tuple[int, list[jury_but.DecisionsProposeesAnnee]]:
|
||||||
"""Calcul automatique des décisions de jury sur une "année" BUT.
|
"""Calcul automatique des décisions de jury sur une "année" BUT.
|
||||||
|
|
||||||
- N'enregistre jamais de décisions de l'année scolaire précédente, même
|
- N'enregistre jamais de décisions de l'année scolaire précédente, même
|
||||||
|
@ -27,16 +27,22 @@ def formsemestre_validation_auto_but(
|
||||||
En revanche, si only_adm est faux, on enregistre la première décision proposée par ScoDoc
|
En revanche, si only_adm est faux, on enregistre la première décision proposée par ScoDoc
|
||||||
(mode à n'utiliser que pour les tests unitaires vérifiant la saisie des jurys)
|
(mode à n'utiliser que pour les tests unitaires vérifiant la saisie des jurys)
|
||||||
|
|
||||||
Returns: nombre d'étudiants pour lesquels on a enregistré au moins un code.
|
Returns:
|
||||||
|
- En mode normal, (nombre d'étudiants pour lesquels on a enregistré au moins un code, []])
|
||||||
|
- En mode dry_run, (0, list[DecisionsProposeesAnnee])
|
||||||
"""
|
"""
|
||||||
if not formsemestre.formation.is_apc():
|
if not formsemestre.formation.is_apc():
|
||||||
raise ScoValueError("fonction réservée aux formations BUT")
|
raise ScoValueError("fonction réservée aux formations BUT")
|
||||||
nb_etud_modif = 0
|
nb_etud_modif = 0
|
||||||
|
decas = []
|
||||||
with sco_cache.DeferredSemCacheManager():
|
with sco_cache.DeferredSemCacheManager():
|
||||||
for etudid in formsemestre.etuds_inscriptions:
|
for etudid in formsemestre.etuds_inscriptions:
|
||||||
etud = Identite.get_etud(etudid)
|
etud = Identite.get_etud(etudid)
|
||||||
deca = jury_but.DecisionsProposeesAnnee(etud, formsemestre)
|
deca = jury_but.DecisionsProposeesAnnee(etud, formsemestre)
|
||||||
nb_etud_modif += deca.record_all(only_validantes=only_adm)
|
if not dry_run:
|
||||||
|
nb_etud_modif += deca.record_all(only_validantes=only_adm)
|
||||||
|
else:
|
||||||
|
decas.append(deca)
|
||||||
|
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
ScolarNews.add(
|
ScolarNews.add(
|
||||||
|
@ -49,4 +55,4 @@ def formsemestre_validation_auto_but(
|
||||||
formsemestre_id=formsemestre.id,
|
formsemestre_id=formsemestre.id,
|
||||||
),
|
),
|
||||||
)
|
)
|
||||||
return nb_etud_modif
|
return nb_etud_modif, decas
|
||||||
|
|
|
@ -21,8 +21,6 @@ from app.but.jury_but import (
|
||||||
DecisionsProposeesRCUE,
|
DecisionsProposeesRCUE,
|
||||||
DecisionsProposeesUE,
|
DecisionsProposeesUE,
|
||||||
)
|
)
|
||||||
from app.comp import res_sem
|
|
||||||
from app.comp.res_but import ResultatsSemestreBUT
|
|
||||||
from app.models import (
|
from app.models import (
|
||||||
ApcNiveau,
|
ApcNiveau,
|
||||||
FormSemestre,
|
FormSemestre,
|
||||||
|
@ -33,11 +31,8 @@ from app.models import (
|
||||||
ScolarFormSemestreValidation,
|
ScolarFormSemestreValidation,
|
||||||
ScolarNews,
|
ScolarNews,
|
||||||
)
|
)
|
||||||
from app.models.config import ScoDocSiteConfig
|
|
||||||
from app.scodoc import html_sco_header
|
|
||||||
from app.scodoc import codes_cursus as sco_codes
|
from app.scodoc import codes_cursus as sco_codes
|
||||||
from app.scodoc.sco_exceptions import ScoValueError
|
from app.scodoc.sco_exceptions import ScoValueError
|
||||||
from app.scodoc import sco_preferences
|
|
||||||
from app.scodoc import sco_utils as scu
|
from app.scodoc import sco_utils as scu
|
||||||
|
|
||||||
|
|
||||||
|
@ -109,23 +104,32 @@ def show_etud(deca: DecisionsProposeesAnnee, read_only: bool = True) -> str:
|
||||||
</div>"""
|
</div>"""
|
||||||
)
|
)
|
||||||
ue_impair, ue_pair = rcue.ue_1, rcue.ue_2
|
ue_impair, ue_pair = rcue.ue_1, rcue.ue_2
|
||||||
# Les UEs à afficher,
|
# Les UEs à afficher : on regarde si read only et si dispense (non ré-inscription à l'UE)
|
||||||
# qui
|
# tuples (UniteEns, read_only, dispense)
|
||||||
ues_ro = [
|
ues_ro_dispense = [
|
||||||
(
|
(
|
||||||
ue_impair,
|
ue_impair,
|
||||||
rcue.ue_cur_impair is None,
|
rcue.ue_cur_impair is None,
|
||||||
|
deca.res_impair
|
||||||
|
and ue_impair
|
||||||
|
and (deca.etud.id, ue_impair.id) in deca.res_impair.dispense_ues,
|
||||||
),
|
),
|
||||||
(
|
(
|
||||||
ue_pair,
|
ue_pair,
|
||||||
rcue.ue_cur_pair is None,
|
rcue.ue_cur_pair is None,
|
||||||
|
deca.res_pair
|
||||||
|
and ue_pair
|
||||||
|
and (deca.etud.id, ue_pair.id) in deca.res_pair.dispense_ues,
|
||||||
),
|
),
|
||||||
]
|
]
|
||||||
# Ordonne selon les dates des 2 semestres considérés:
|
# Ordonne selon les dates des 2 semestres considérés:
|
||||||
if reverse_semestre:
|
if reverse_semestre:
|
||||||
ues_ro[0], ues_ro[1] = ues_ro[1], ues_ro[0]
|
ues_ro_dispense[0], ues_ro_dispense[1] = (
|
||||||
|
ues_ro_dispense[1],
|
||||||
|
ues_ro_dispense[0],
|
||||||
|
)
|
||||||
# Colonnes d'UE:
|
# Colonnes d'UE:
|
||||||
for ue, ue_read_only in ues_ro:
|
for ue, ue_read_only, ue_dispense in ues_ro_dispense:
|
||||||
if ue:
|
if ue:
|
||||||
H.append(
|
H.append(
|
||||||
_gen_but_niveau_ue(
|
_gen_but_niveau_ue(
|
||||||
|
@ -134,6 +138,7 @@ def show_etud(deca: DecisionsProposeesAnnee, read_only: bool = True) -> str:
|
||||||
disabled=read_only or ue_read_only,
|
disabled=read_only or ue_read_only,
|
||||||
annee_prec=ue_read_only,
|
annee_prec=ue_read_only,
|
||||||
niveau_id=ue.niveau_competence.id,
|
niveau_id=ue.niveau_competence.id,
|
||||||
|
ue_dispense=ue_dispense,
|
||||||
)
|
)
|
||||||
)
|
)
|
||||||
else:
|
else:
|
||||||
|
@ -188,21 +193,30 @@ def _gen_but_niveau_ue(
|
||||||
disabled: bool = False,
|
disabled: bool = False,
|
||||||
annee_prec: bool = False,
|
annee_prec: bool = False,
|
||||||
niveau_id: int = None,
|
niveau_id: int = None,
|
||||||
|
ue_dispense: bool = False,
|
||||||
) -> str:
|
) -> str:
|
||||||
if dec_ue.ue_status and dec_ue.ue_status["is_capitalized"]:
|
if dec_ue.ue_status and dec_ue.ue_status["is_capitalized"]:
|
||||||
moy_ue_str = f"""<span class="ue_cap">{
|
moy_ue_str = f"""<span class="ue_cap">{
|
||||||
scu.fmt_note(dec_ue.moy_ue_with_cap)}</span>"""
|
scu.fmt_note(dec_ue.moy_ue_with_cap)}</span>"""
|
||||||
scoplement = f"""<div class="scoplement">
|
|
||||||
<div>
|
if ue_dispense:
|
||||||
<b>UE {ue.acronyme} capitalisée </b>
|
etat_en_cours = """Non (ré)inscrit à cette UE"""
|
||||||
<span>le {dec_ue.ue_status["event_date"].strftime("%d/%m/%Y")}
|
else:
|
||||||
</span>
|
etat_en_cours = f"""UE en cours
|
||||||
</div>
|
|
||||||
<div>UE en cours
|
|
||||||
{ "sans notes" if np.isnan(dec_ue.moy_ue)
|
{ "sans notes" if np.isnan(dec_ue.moy_ue)
|
||||||
else
|
else
|
||||||
("avec moyenne <b>" + scu.fmt_note(dec_ue.moy_ue) + "</b>")
|
("avec moyenne <b>" + scu.fmt_note(dec_ue.moy_ue) + "</b>")
|
||||||
}
|
}
|
||||||
|
"""
|
||||||
|
|
||||||
|
scoplement = f"""<div class="scoplement">
|
||||||
|
<div>
|
||||||
|
<b>UE {ue.acronyme} capitalisée </b>
|
||||||
|
<span>le {dec_ue.ue_status["event_date"].strftime(scu.DATE_FMT)}
|
||||||
|
</span>
|
||||||
|
</div>
|
||||||
|
<div>
|
||||||
|
{ etat_en_cours }
|
||||||
</div>
|
</div>
|
||||||
</div>
|
</div>
|
||||||
"""
|
"""
|
||||||
|
@ -214,7 +228,7 @@ def _gen_but_niveau_ue(
|
||||||
<div>
|
<div>
|
||||||
<b>UE {ue.acronyme} antérieure </b>
|
<b>UE {ue.acronyme} antérieure </b>
|
||||||
<span>validée {dec_ue.validation.code}
|
<span>validée {dec_ue.validation.code}
|
||||||
le {dec_ue.validation.event_date.strftime("%d/%m/%Y")}
|
le {dec_ue.validation.event_date.strftime(scu.DATE_FMT)}
|
||||||
</span>
|
</span>
|
||||||
</div>
|
</div>
|
||||||
<div>Non reprise dans l'année en cours</div>
|
<div>Non reprise dans l'année en cours</div>
|
||||||
|
@ -232,9 +246,7 @@ def _gen_but_niveau_ue(
|
||||||
moy_ue_str = f"""<span>{scu.fmt_note(dec_ue.moy_ue)}</span>"""
|
moy_ue_str = f"""<span>{scu.fmt_note(dec_ue.moy_ue)}</span>"""
|
||||||
if dec_ue.code_valide:
|
if dec_ue.code_valide:
|
||||||
date_str = (
|
date_str = (
|
||||||
f"""enregistré le {dec_ue.validation.event_date.strftime("%d/%m/%Y")}
|
f"""enregistré le {dec_ue.validation.event_date.strftime(scu.DATEATIME_FMT)}"""
|
||||||
à {dec_ue.validation.event_date.strftime("%Hh%M")}
|
|
||||||
"""
|
|
||||||
if dec_ue.validation and dec_ue.validation.event_date
|
if dec_ue.validation and dec_ue.validation.event_date
|
||||||
else ""
|
else ""
|
||||||
)
|
)
|
||||||
|
@ -244,7 +256,13 @@ def _gen_but_niveau_ue(
|
||||||
</div>
|
</div>
|
||||||
"""
|
"""
|
||||||
else:
|
else:
|
||||||
scoplement = ""
|
if dec_ue.ue_status and dec_ue.ue_status["was_capitalized"]:
|
||||||
|
scoplement = """<div class="scoplement">
|
||||||
|
UE déjà capitalisée avec résultat moins favorable.
|
||||||
|
</div>
|
||||||
|
"""
|
||||||
|
else:
|
||||||
|
scoplement = ""
|
||||||
|
|
||||||
ue_class = "" # 'recorded' if dec_ue.code_valide is not None else ''
|
ue_class = "" # 'recorded' if dec_ue.code_valide is not None else ''
|
||||||
if dec_ue.code_valide is not None and dec_ue.codes:
|
if dec_ue.code_valide is not None and dec_ue.codes:
|
||||||
|
|
|
@ -75,7 +75,7 @@ class RegroupementCoherentUE:
|
||||||
else None
|
else None
|
||||||
)
|
)
|
||||||
|
|
||||||
# Autres validations pour l'UE paire
|
# Autres validations pour les UEs paire/impaire
|
||||||
self.validation_ue_best_pair = best_autre_ue_validation(
|
self.validation_ue_best_pair = best_autre_ue_validation(
|
||||||
etud.id,
|
etud.id,
|
||||||
niveau.id,
|
niveau.id,
|
||||||
|
@ -101,14 +101,24 @@ class RegroupementCoherentUE:
|
||||||
"résultats formsemestre de l'UE si elle est courante, None sinon"
|
"résultats formsemestre de l'UE si elle est courante, None sinon"
|
||||||
self.ue_status_impair = None
|
self.ue_status_impair = None
|
||||||
if self.ue_cur_impair:
|
if self.ue_cur_impair:
|
||||||
|
# UE courante
|
||||||
ue_status = res_impair.get_etud_ue_status(etud.id, self.ue_cur_impair.id)
|
ue_status = res_impair.get_etud_ue_status(etud.id, self.ue_cur_impair.id)
|
||||||
self.moy_ue_1 = ue_status["moy"] if ue_status else None # avec capitalisée
|
self.moy_ue_1 = ue_status["moy"] if ue_status else None # avec capitalisée
|
||||||
self.ue_1 = self.ue_cur_impair
|
self.ue_1 = self.ue_cur_impair
|
||||||
self.res_impair = res_impair
|
self.res_impair = res_impair
|
||||||
self.ue_status_impair = ue_status
|
self.ue_status_impair = ue_status
|
||||||
elif self.validation_ue_best_impair:
|
elif self.validation_ue_best_impair:
|
||||||
|
# UE capitalisée
|
||||||
self.moy_ue_1 = self.validation_ue_best_impair.moy_ue
|
self.moy_ue_1 = self.validation_ue_best_impair.moy_ue
|
||||||
self.ue_1 = self.validation_ue_best_impair.ue
|
self.ue_1 = self.validation_ue_best_impair.ue
|
||||||
|
if (
|
||||||
|
res_impair
|
||||||
|
and self.validation_ue_best_impair
|
||||||
|
and self.validation_ue_best_impair.ue
|
||||||
|
):
|
||||||
|
self.ue_status_impair = res_impair.get_etud_ue_status(
|
||||||
|
etud.id, self.validation_ue_best_impair.ue.id
|
||||||
|
)
|
||||||
else:
|
else:
|
||||||
self.moy_ue_1, self.ue_1 = None, None
|
self.moy_ue_1, self.ue_1 = None, None
|
||||||
self.moy_ue_1_val = self.moy_ue_1 if self.moy_ue_1 is not None else 0.0
|
self.moy_ue_1_val = self.moy_ue_1 if self.moy_ue_1 is not None else 0.0
|
||||||
|
|
|
@ -27,6 +27,7 @@
|
||||||
|
|
||||||
"""caches pour tables APC
|
"""caches pour tables APC
|
||||||
"""
|
"""
|
||||||
|
from flask import g
|
||||||
|
|
||||||
from app.scodoc import sco_cache
|
from app.scodoc import sco_cache
|
||||||
|
|
||||||
|
@ -47,3 +48,27 @@ class EvaluationsPoidsCache(sco_cache.ScoDocCache):
|
||||||
"""
|
"""
|
||||||
|
|
||||||
prefix = "EPC"
|
prefix = "EPC"
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def invalidate_all(cls):
|
||||||
|
"delete all cached evaluations poids (in current dept)"
|
||||||
|
from app.models.formsemestre import FormSemestre
|
||||||
|
from app.models.moduleimpls import ModuleImpl
|
||||||
|
|
||||||
|
moduleimpl_ids = [
|
||||||
|
mi.id
|
||||||
|
for mi in ModuleImpl.query.join(FormSemestre).filter_by(
|
||||||
|
dept_id=g.scodoc_dept_id
|
||||||
|
)
|
||||||
|
]
|
||||||
|
cls.delete_many(moduleimpl_ids)
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def invalidate_sem(cls, formsemestre_id):
|
||||||
|
"delete cached evaluations poids for this formsemestre from cache"
|
||||||
|
from app.models.moduleimpls import ModuleImpl
|
||||||
|
|
||||||
|
moduleimpl_ids = [
|
||||||
|
mi.id for mi in ModuleImpl.query.filter_by(formsemestre_id=formsemestre_id)
|
||||||
|
]
|
||||||
|
cls.delete_many(moduleimpl_ids)
|
||||||
|
|
|
@ -23,6 +23,7 @@ from app.models import (
|
||||||
)
|
)
|
||||||
from app.scodoc import sco_cache
|
from app.scodoc import sco_cache
|
||||||
from app.scodoc import codes_cursus
|
from app.scodoc import codes_cursus
|
||||||
|
from app.scodoc import sco_utils as scu
|
||||||
|
|
||||||
|
|
||||||
class ValidationsSemestre(ResultatsCache):
|
class ValidationsSemestre(ResultatsCache):
|
||||||
|
@ -84,7 +85,7 @@ class ValidationsSemestre(ResultatsCache):
|
||||||
"code": decision.code,
|
"code": decision.code,
|
||||||
"assidu": decision.assidu,
|
"assidu": decision.assidu,
|
||||||
"compense_formsemestre_id": decision.compense_formsemestre_id,
|
"compense_formsemestre_id": decision.compense_formsemestre_id,
|
||||||
"event_date": decision.event_date.strftime("%d/%m/%Y"),
|
"event_date": decision.event_date.strftime(scu.DATE_FMT),
|
||||||
}
|
}
|
||||||
self.decisions_jury = decisions_jury
|
self.decisions_jury = decisions_jury
|
||||||
|
|
||||||
|
@ -107,7 +108,7 @@ class ValidationsSemestre(ResultatsCache):
|
||||||
decisions_jury_ues[decision.etudid][decision.ue.id] = {
|
decisions_jury_ues[decision.etudid][decision.ue.id] = {
|
||||||
"code": decision.code,
|
"code": decision.code,
|
||||||
"ects": ects, # 0. si UE non validée
|
"ects": ects, # 0. si UE non validée
|
||||||
"event_date": decision.event_date.strftime("%d/%m/%Y"),
|
"event_date": decision.event_date.strftime(scu.DATE_FMT),
|
||||||
}
|
}
|
||||||
|
|
||||||
self.decisions_jury_ues = decisions_jury_ues
|
self.decisions_jury_ues = decisions_jury_ues
|
||||||
|
|
|
@ -45,7 +45,6 @@ from app.models import Evaluation, EvaluationUEPoids, ModuleImpl
|
||||||
from app.scodoc import sco_cache
|
from app.scodoc import sco_cache
|
||||||
from app.scodoc import sco_utils as scu
|
from app.scodoc import sco_utils as scu
|
||||||
from app.scodoc.codes_cursus import UE_SPORT
|
from app.scodoc.codes_cursus import UE_SPORT
|
||||||
from app.scodoc.sco_exceptions import ScoBugCatcher
|
|
||||||
from app.scodoc.sco_utils import ModuleType
|
from app.scodoc.sco_utils import ModuleType
|
||||||
|
|
||||||
|
|
||||||
|
@ -72,7 +71,15 @@ class ModuleImplResults:
|
||||||
les caches sont gérés par ResultatsSemestre.
|
les caches sont gérés par ResultatsSemestre.
|
||||||
"""
|
"""
|
||||||
|
|
||||||
def __init__(self, moduleimpl: ModuleImpl):
|
def __init__(
|
||||||
|
self, moduleimpl: ModuleImpl, etudids: list[int], etudids_actifs: set[int]
|
||||||
|
):
|
||||||
|
"""
|
||||||
|
Args:
|
||||||
|
- etudids : liste des etudids, qui donne l'index du dataframe
|
||||||
|
(doit être tous les étudiants inscrits au semestre incluant les DEM et DEF)
|
||||||
|
- etudids_actifs l'ensemble des étudiants inscrits au semestre, non DEM/DEF.
|
||||||
|
"""
|
||||||
self.moduleimpl_id = moduleimpl.id
|
self.moduleimpl_id = moduleimpl.id
|
||||||
self.module_id = moduleimpl.module.id
|
self.module_id = moduleimpl.module.id
|
||||||
self.etudids = None
|
self.etudids = None
|
||||||
|
@ -105,14 +112,23 @@ class ModuleImplResults:
|
||||||
"""
|
"""
|
||||||
self.evals_etudids_sans_note = {}
|
self.evals_etudids_sans_note = {}
|
||||||
"""dict: evaluation_id : set des etudids non notés dans cette eval, sans les démissions."""
|
"""dict: evaluation_id : set des etudids non notés dans cette eval, sans les démissions."""
|
||||||
self.load_notes()
|
self.evals_type = {}
|
||||||
|
"""Type de chaque eval { evaluation.id : evaluation.evaluation_type }"""
|
||||||
|
self.load_notes(etudids, etudids_actifs)
|
||||||
self.etuds_use_session2 = pd.Series(False, index=self.evals_notes.index)
|
self.etuds_use_session2 = pd.Series(False, index=self.evals_notes.index)
|
||||||
"""1 bool par etud, indique si sa moyenne de module vient de la session2"""
|
"""1 bool par etud, indique si sa moyenne de module vient de la session2"""
|
||||||
self.etuds_use_rattrapage = pd.Series(False, index=self.evals_notes.index)
|
self.etuds_use_rattrapage = pd.Series(False, index=self.evals_notes.index)
|
||||||
"""1 bool par etud, indique si sa moyenne de module utilise la note de rattrapage"""
|
"""1 bool par etud, indique si sa moyenne de module utilise la note de rattrapage"""
|
||||||
|
|
||||||
def load_notes(self): # ré-écriture de df_load_modimpl_notes
|
def load_notes(
|
||||||
|
self, etudids: list[int], etudids_actifs: set[int]
|
||||||
|
): # ré-écriture de df_load_modimpl_notes
|
||||||
"""Charge toutes les notes de toutes les évaluations du module.
|
"""Charge toutes les notes de toutes les évaluations du module.
|
||||||
|
Args:
|
||||||
|
- etudids : liste des etudids, qui donne l'index du dataframe
|
||||||
|
(doit être tous les étudiants inscrits au semestre incluant les DEM et DEF)
|
||||||
|
- etudids_actifs l'ensemble des étudiants inscrits au semestre, non DEM/DEF.
|
||||||
|
|
||||||
Dataframe evals_notes
|
Dataframe evals_notes
|
||||||
colonnes: le nom de la colonne est l'evaluation_id (int)
|
colonnes: le nom de la colonne est l'evaluation_id (int)
|
||||||
index (lignes): etudid (int)
|
index (lignes): etudid (int)
|
||||||
|
@ -135,12 +151,12 @@ class ModuleImplResults:
|
||||||
qui ont des notes ATT.
|
qui ont des notes ATT.
|
||||||
"""
|
"""
|
||||||
moduleimpl = db.session.get(ModuleImpl, self.moduleimpl_id)
|
moduleimpl = db.session.get(ModuleImpl, self.moduleimpl_id)
|
||||||
self.etudids = self._etudids()
|
self.etudids = etudids
|
||||||
|
|
||||||
# --- Calcul nombre d'inscrits pour déterminer les évaluations "completes":
|
# --- Calcul nombre d'inscrits pour déterminer les évaluations "completes":
|
||||||
# on prend les inscrits au module ET au semestre (donc sans démissionnaires)
|
# on prend les inscrits au module ET au semestre (donc sans démissionnaires)
|
||||||
inscrits_module = {ins.etud.id for ins in moduleimpl.inscriptions}.intersection(
|
inscrits_module = {ins.etud.id for ins in moduleimpl.inscriptions}.intersection(
|
||||||
moduleimpl.formsemestre.etudids_actifs
|
etudids_actifs
|
||||||
)
|
)
|
||||||
self.nb_inscrits_module = len(inscrits_module)
|
self.nb_inscrits_module = len(inscrits_module)
|
||||||
|
|
||||||
|
@ -148,20 +164,24 @@ class ModuleImplResults:
|
||||||
evals_notes = pd.DataFrame(index=self.etudids, dtype=float)
|
evals_notes = pd.DataFrame(index=self.etudids, dtype=float)
|
||||||
self.evaluations_completes = []
|
self.evaluations_completes = []
|
||||||
self.evaluations_completes_dict = {}
|
self.evaluations_completes_dict = {}
|
||||||
|
self.etudids_attente = set() # empty
|
||||||
|
self.evals_type = {}
|
||||||
|
evaluation: Evaluation
|
||||||
for evaluation in moduleimpl.evaluations:
|
for evaluation in moduleimpl.evaluations:
|
||||||
|
self.evals_type[evaluation.id] = evaluation.evaluation_type
|
||||||
eval_df = self._load_evaluation_notes(evaluation)
|
eval_df = self._load_evaluation_notes(evaluation)
|
||||||
# is_complete ssi
|
# is_complete ssi
|
||||||
# tous les inscrits (non dem) au module ont une note
|
# tous les inscrits (non dem) au module ont une note
|
||||||
# ou évaluation déclarée "à prise en compte immédiate"
|
# ou évaluation déclarée "à prise en compte immédiate"
|
||||||
# ou rattrapage, 2eme session, bonus
|
# ou rattrapage, 2eme session, bonus
|
||||||
# ET pas bloquée par date (is_blocked)
|
# ET pas bloquée par date (is_blocked)
|
||||||
|
is_blocked = evaluation.is_blocked()
|
||||||
etudids_sans_note = inscrits_module - set(eval_df.index) # sans les dem.
|
etudids_sans_note = inscrits_module - set(eval_df.index) # sans les dem.
|
||||||
is_complete = (
|
is_complete = (
|
||||||
(evaluation.evaluation_type != Evaluation.EVALUATION_NORMALE)
|
(evaluation.evaluation_type != Evaluation.EVALUATION_NORMALE)
|
||||||
or (evaluation.publish_incomplete)
|
or (evaluation.publish_incomplete)
|
||||||
or (not etudids_sans_note)
|
or (not etudids_sans_note)
|
||||||
) and not evaluation.is_blocked()
|
) and not is_blocked
|
||||||
self.evaluations_completes.append(is_complete)
|
self.evaluations_completes.append(is_complete)
|
||||||
self.evaluations_completes_dict[evaluation.id] = is_complete
|
self.evaluations_completes_dict[evaluation.id] = is_complete
|
||||||
self.evals_etudids_sans_note[evaluation.id] = etudids_sans_note
|
self.evals_etudids_sans_note[evaluation.id] = etudids_sans_note
|
||||||
|
@ -178,16 +198,21 @@ class ModuleImplResults:
|
||||||
eval_notes_inscr = evals_notes[str(evaluation.id)][list(inscrits_module)]
|
eval_notes_inscr = evals_notes[str(evaluation.id)][list(inscrits_module)]
|
||||||
# Nombre de notes (non vides, incluant ATT etc) des inscrits:
|
# Nombre de notes (non vides, incluant ATT etc) des inscrits:
|
||||||
nb_notes = eval_notes_inscr.notna().sum()
|
nb_notes = eval_notes_inscr.notna().sum()
|
||||||
# Etudiants avec notes en attente:
|
|
||||||
# = ceux avec note ATT
|
if is_blocked:
|
||||||
eval_etudids_attente = set(
|
eval_etudids_attente = set()
|
||||||
eval_notes_inscr.iloc[
|
else:
|
||||||
(eval_notes_inscr == scu.NOTES_ATTENTE).to_numpy()
|
# Etudiants avec notes en attente:
|
||||||
].index
|
# = ceux avec note ATT
|
||||||
)
|
eval_etudids_attente = set(
|
||||||
if evaluation.publish_incomplete:
|
eval_notes_inscr.iloc[
|
||||||
# et en "immédiat", tous ceux sans note
|
(eval_notes_inscr == scu.NOTES_ATTENTE).to_numpy()
|
||||||
eval_etudids_attente |= etudids_sans_note
|
].index
|
||||||
|
)
|
||||||
|
if evaluation.publish_incomplete:
|
||||||
|
# et en "immédiat", tous ceux sans note
|
||||||
|
eval_etudids_attente |= etudids_sans_note
|
||||||
|
|
||||||
# Synthèse pour état du module:
|
# Synthèse pour état du module:
|
||||||
self.etudids_attente |= eval_etudids_attente
|
self.etudids_attente |= eval_etudids_attente
|
||||||
self.evaluations_etat[evaluation.id] = EvaluationEtat(
|
self.evaluations_etat[evaluation.id] = EvaluationEtat(
|
||||||
|
@ -229,17 +254,6 @@ class ModuleImplResults:
|
||||||
eval_df[str(evaluation.id)] = pd.to_numeric(eval_df[str(evaluation.id)])
|
eval_df[str(evaluation.id)] = pd.to_numeric(eval_df[str(evaluation.id)])
|
||||||
return eval_df
|
return eval_df
|
||||||
|
|
||||||
def _etudids(self):
|
|
||||||
"""L'index du dataframe est la liste de tous les étudiants inscrits au semestre
|
|
||||||
(incluant les DEM et DEF)
|
|
||||||
"""
|
|
||||||
return [
|
|
||||||
inscr.etudid
|
|
||||||
for inscr in db.session.get(
|
|
||||||
ModuleImpl, self.moduleimpl_id
|
|
||||||
).formsemestre.inscriptions
|
|
||||||
]
|
|
||||||
|
|
||||||
def get_evaluations_coefs(self, modimpl: ModuleImpl) -> np.array:
|
def get_evaluations_coefs(self, modimpl: ModuleImpl) -> np.array:
|
||||||
"""Coefficients des évaluations.
|
"""Coefficients des évaluations.
|
||||||
Les coefs des évals incomplètes, rattrapage, session 2, bonus sont forcés à zéro.
|
Les coefs des évals incomplètes, rattrapage, session 2, bonus sont forcés à zéro.
|
||||||
|
@ -260,6 +274,24 @@ class ModuleImplResults:
|
||||||
* self.evaluations_completes
|
* self.evaluations_completes
|
||||||
).reshape(-1, 1)
|
).reshape(-1, 1)
|
||||||
|
|
||||||
|
def get_evaluations_special_coefs(
|
||||||
|
self, modimpl: ModuleImpl, evaluation_type=Evaluation.EVALUATION_SESSION2
|
||||||
|
) -> np.array:
|
||||||
|
"""Coefficients des évaluations de session 2 ou rattrapage.
|
||||||
|
Les évals de session 2 et rattrapage sont réputées "complètes": elles sont toujours
|
||||||
|
prises en compte mais seules les notes numériques et ABS sont utilisées.
|
||||||
|
Résultat: 2d-array of floats, shape (nb_evals, 1)
|
||||||
|
"""
|
||||||
|
return (
|
||||||
|
np.array(
|
||||||
|
[
|
||||||
|
(e.coefficient if e.evaluation_type == evaluation_type else 0.0)
|
||||||
|
for e in modimpl.evaluations
|
||||||
|
],
|
||||||
|
dtype=float,
|
||||||
|
)
|
||||||
|
).reshape(-1, 1)
|
||||||
|
|
||||||
# was _list_notes_evals_titles
|
# was _list_notes_evals_titles
|
||||||
def get_evaluations_completes(self, moduleimpl: ModuleImpl) -> list[Evaluation]:
|
def get_evaluations_completes(self, moduleimpl: ModuleImpl) -> list[Evaluation]:
|
||||||
"Liste des évaluations complètes"
|
"Liste des évaluations complètes"
|
||||||
|
@ -286,32 +318,26 @@ class ModuleImplResults:
|
||||||
for (etudid, x) in self.evals_notes[evaluation_id].items()
|
for (etudid, x) in self.evals_notes[evaluation_id].items()
|
||||||
}
|
}
|
||||||
|
|
||||||
def get_evaluation_rattrapage(self, moduleimpl: ModuleImpl) -> Evaluation | None:
|
def get_evaluations_rattrapage(self, moduleimpl: ModuleImpl) -> list[Evaluation]:
|
||||||
"""L'évaluation de rattrapage de ce module, ou None s'il n'en a pas.
|
"""Les évaluations de rattrapage de ce module.
|
||||||
Rattrapage: la moyenne du module est la meilleure note entre moyenne
|
Rattrapage: la moyenne du module est la meilleure note entre moyenne
|
||||||
des autres évals et la note eval rattrapage.
|
des autres évals et la moyenne des notes de rattrapage.
|
||||||
"""
|
"""
|
||||||
eval_list = [
|
return [
|
||||||
e
|
e
|
||||||
for e in moduleimpl.evaluations
|
for e in moduleimpl.evaluations
|
||||||
if e.evaluation_type == Evaluation.EVALUATION_RATTRAPAGE
|
if e.evaluation_type == Evaluation.EVALUATION_RATTRAPAGE
|
||||||
]
|
]
|
||||||
if eval_list:
|
|
||||||
return eval_list[0]
|
|
||||||
return None
|
|
||||||
|
|
||||||
def get_evaluation_session2(self, moduleimpl: ModuleImpl) -> Evaluation | None:
|
def get_evaluations_session2(self, moduleimpl: ModuleImpl) -> list[Evaluation]:
|
||||||
"""L'évaluation de deuxième session de ce module, ou None s'il n'en a pas.
|
"""Les évaluations de deuxième session de ce module, ou None s'il n'en a pas.
|
||||||
Session 2: remplace la note de moyenne des autres évals.
|
La moyenne des notes de Session 2 remplace la note de moyenne des autres évals.
|
||||||
"""
|
"""
|
||||||
eval_list = [
|
return [
|
||||||
e
|
e
|
||||||
for e in moduleimpl.evaluations
|
for e in moduleimpl.evaluations
|
||||||
if e.evaluation_type == Evaluation.EVALUATION_SESSION2
|
if e.evaluation_type == Evaluation.EVALUATION_SESSION2
|
||||||
]
|
]
|
||||||
if eval_list:
|
|
||||||
return eval_list[0]
|
|
||||||
return None
|
|
||||||
|
|
||||||
def get_evaluations_bonus(self, modimpl: ModuleImpl) -> list[Evaluation]:
|
def get_evaluations_bonus(self, modimpl: ModuleImpl) -> list[Evaluation]:
|
||||||
"""Les évaluations bonus de ce module, ou liste vide s'il n'en a pas."""
|
"""Les évaluations bonus de ce module, ou liste vide s'il n'en a pas."""
|
||||||
|
@ -334,12 +360,13 @@ class ModuleImplResultsAPC(ModuleImplResults):
|
||||||
"Calcul des moyennes de modules à la mode BUT"
|
"Calcul des moyennes de modules à la mode BUT"
|
||||||
|
|
||||||
def compute_module_moy(
|
def compute_module_moy(
|
||||||
self,
|
self, evals_poids_df: pd.DataFrame, modimpl_coefs_df: pd.DataFrame
|
||||||
evals_poids_df: pd.DataFrame,
|
|
||||||
) -> pd.DataFrame:
|
) -> pd.DataFrame:
|
||||||
"""Calcule les moyennes des étudiants dans ce module
|
"""Calcule les moyennes des étudiants dans ce module
|
||||||
|
|
||||||
Argument: evals_poids: DataFrame, colonnes: UEs, Lignes: EVALs
|
Argument:
|
||||||
|
evals_poids: DataFrame, colonnes: UEs, lignes: EVALs
|
||||||
|
modimpl_coefs_df: DataFrame, colonnes: modimpl_id, lignes: ue_id
|
||||||
|
|
||||||
Résultat: DataFrame, colonnes UE, lignes etud
|
Résultat: DataFrame, colonnes UE, lignes etud
|
||||||
= la note de l'étudiant dans chaque UE pour ce module.
|
= la note de l'étudiant dans chaque UE pour ce module.
|
||||||
|
@ -360,6 +387,7 @@ class ModuleImplResultsAPC(ModuleImplResults):
|
||||||
return pd.DataFrame(index=[], columns=evals_poids_df.columns)
|
return pd.DataFrame(index=[], columns=evals_poids_df.columns)
|
||||||
if nb_ues == 0:
|
if nb_ues == 0:
|
||||||
return pd.DataFrame(index=self.evals_notes.index, columns=[])
|
return pd.DataFrame(index=self.evals_notes.index, columns=[])
|
||||||
|
# coefs des évals complètes normales (pas rattr., session 2 ni bonus):
|
||||||
evals_coefs = self.get_evaluations_coefs(modimpl)
|
evals_coefs = self.get_evaluations_coefs(modimpl)
|
||||||
evals_poids = evals_poids_df.values * evals_coefs
|
evals_poids = evals_poids_df.values * evals_coefs
|
||||||
# -> evals_poids shape : (nb_evals, nb_ues)
|
# -> evals_poids shape : (nb_evals, nb_ues)
|
||||||
|
@ -388,6 +416,47 @@ class ModuleImplResultsAPC(ModuleImplResults):
|
||||||
) / np.sum(evals_poids_etuds, axis=1)
|
) / np.sum(evals_poids_etuds, axis=1)
|
||||||
# etuds_moy_module shape: nb_etuds x nb_ues
|
# etuds_moy_module shape: nb_etuds x nb_ues
|
||||||
|
|
||||||
|
evals_session2 = self.get_evaluations_session2(modimpl)
|
||||||
|
evals_rat = self.get_evaluations_rattrapage(modimpl)
|
||||||
|
if evals_session2:
|
||||||
|
# Session2 : quand elle existe, remplace la note de module
|
||||||
|
# Calcul moyenne notes session2 et remplace (si la note session 2 existe)
|
||||||
|
etuds_moy_module_s2 = self._compute_moy_special(
|
||||||
|
modimpl,
|
||||||
|
evals_notes_stacked,
|
||||||
|
evals_poids_df,
|
||||||
|
Evaluation.EVALUATION_SESSION2,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Vrai si toutes les UEs avec coef non nul ont bien une note de session 2 calculée:
|
||||||
|
mod_coefs = modimpl_coefs_df[modimpl.id]
|
||||||
|
etuds_use_session2 = np.all(
|
||||||
|
np.isfinite(etuds_moy_module_s2[:, mod_coefs != 0]), axis=1
|
||||||
|
)
|
||||||
|
etuds_moy_module = np.where(
|
||||||
|
etuds_use_session2[:, np.newaxis],
|
||||||
|
etuds_moy_module_s2,
|
||||||
|
etuds_moy_module,
|
||||||
|
)
|
||||||
|
self.etuds_use_session2 = pd.Series(
|
||||||
|
etuds_use_session2, index=self.evals_notes.index
|
||||||
|
)
|
||||||
|
elif evals_rat:
|
||||||
|
etuds_moy_module_rat = self._compute_moy_special(
|
||||||
|
modimpl,
|
||||||
|
evals_notes_stacked,
|
||||||
|
evals_poids_df,
|
||||||
|
Evaluation.EVALUATION_RATTRAPAGE,
|
||||||
|
)
|
||||||
|
etuds_ue_use_rattrapage = (
|
||||||
|
etuds_moy_module_rat > etuds_moy_module
|
||||||
|
) # etud x UE
|
||||||
|
etuds_moy_module = np.where(
|
||||||
|
etuds_ue_use_rattrapage, etuds_moy_module_rat, etuds_moy_module
|
||||||
|
)
|
||||||
|
self.etuds_use_rattrapage = pd.Series(
|
||||||
|
np.any(etuds_ue_use_rattrapage, axis=1), index=self.evals_notes.index
|
||||||
|
)
|
||||||
# Application des évaluations bonus:
|
# Application des évaluations bonus:
|
||||||
etuds_moy_module = self.apply_bonus(
|
etuds_moy_module = self.apply_bonus(
|
||||||
etuds_moy_module,
|
etuds_moy_module,
|
||||||
|
@ -395,47 +464,6 @@ class ModuleImplResultsAPC(ModuleImplResults):
|
||||||
evals_poids_df,
|
evals_poids_df,
|
||||||
evals_notes_stacked,
|
evals_notes_stacked,
|
||||||
)
|
)
|
||||||
|
|
||||||
# Session2 : quand elle existe, remplace la note de module
|
|
||||||
eval_session2 = self.get_evaluation_session2(modimpl)
|
|
||||||
if eval_session2:
|
|
||||||
notes_session2 = self.evals_notes[eval_session2.id].values
|
|
||||||
# n'utilise que les notes valides (pas ATT, EXC, ABS, NaN)
|
|
||||||
etuds_use_session2 = notes_session2 > scu.NOTES_ABSENCE
|
|
||||||
etuds_moy_module = np.where(
|
|
||||||
etuds_use_session2[:, np.newaxis],
|
|
||||||
np.tile(
|
|
||||||
(notes_session2 / (eval_session2.note_max / 20.0))[:, np.newaxis],
|
|
||||||
nb_ues,
|
|
||||||
),
|
|
||||||
etuds_moy_module,
|
|
||||||
)
|
|
||||||
self.etuds_use_session2 = pd.Series(
|
|
||||||
etuds_use_session2, index=self.evals_notes.index
|
|
||||||
)
|
|
||||||
else:
|
|
||||||
# Rattrapage: remplace la note de module ssi elle est supérieure
|
|
||||||
eval_rat = self.get_evaluation_rattrapage(modimpl)
|
|
||||||
if eval_rat:
|
|
||||||
notes_rat = self.evals_notes[eval_rat.id].values
|
|
||||||
# remplace les notes invalides (ATT, EXC...) par des NaN
|
|
||||||
notes_rat = np.where(
|
|
||||||
notes_rat > scu.NOTES_ABSENCE,
|
|
||||||
notes_rat / (eval_rat.note_max / 20.0),
|
|
||||||
np.nan,
|
|
||||||
)
|
|
||||||
# "Étend" le rattrapage sur les UE: la note de rattrapage est la même
|
|
||||||
# pour toutes les UE mais ne remplace que là où elle est supérieure
|
|
||||||
notes_rat_ues = np.stack([notes_rat] * nb_ues, axis=1)
|
|
||||||
# prend le max
|
|
||||||
etuds_use_rattrapage = notes_rat_ues > etuds_moy_module
|
|
||||||
etuds_moy_module = np.where(
|
|
||||||
etuds_use_rattrapage, notes_rat_ues, etuds_moy_module
|
|
||||||
)
|
|
||||||
# Serie indiquant que l'étudiant utilise une note de rattrapage sur l'une des UE:
|
|
||||||
self.etuds_use_rattrapage = pd.Series(
|
|
||||||
etuds_use_rattrapage.any(axis=1), index=self.evals_notes.index
|
|
||||||
)
|
|
||||||
self.etuds_moy_module = pd.DataFrame(
|
self.etuds_moy_module = pd.DataFrame(
|
||||||
etuds_moy_module,
|
etuds_moy_module,
|
||||||
index=self.evals_notes.index,
|
index=self.evals_notes.index,
|
||||||
|
@ -443,6 +471,34 @@ class ModuleImplResultsAPC(ModuleImplResults):
|
||||||
)
|
)
|
||||||
return self.etuds_moy_module
|
return self.etuds_moy_module
|
||||||
|
|
||||||
|
def _compute_moy_special(
|
||||||
|
self,
|
||||||
|
modimpl: ModuleImpl,
|
||||||
|
evals_notes_stacked: np.array,
|
||||||
|
evals_poids_df: pd.DataFrame,
|
||||||
|
evaluation_type: int,
|
||||||
|
) -> np.array:
|
||||||
|
"""Calcul moyenne APC sur évals rattrapage ou session2"""
|
||||||
|
nb_etuds = self.evals_notes.shape[0]
|
||||||
|
nb_ues = evals_poids_df.shape[1]
|
||||||
|
evals_coefs_s2 = self.get_evaluations_special_coefs(
|
||||||
|
modimpl, evaluation_type=evaluation_type
|
||||||
|
)
|
||||||
|
evals_poids_s2 = evals_poids_df.values * evals_coefs_s2
|
||||||
|
poids_stacked_s2 = np.stack(
|
||||||
|
[evals_poids_s2] * nb_etuds
|
||||||
|
) # nb_etuds, nb_evals, nb_ues
|
||||||
|
evals_poids_etuds_s2 = np.where(
|
||||||
|
np.stack([self.evals_notes.values] * nb_ues, axis=2) > scu.NOTES_NEUTRALISE,
|
||||||
|
poids_stacked_s2,
|
||||||
|
0,
|
||||||
|
)
|
||||||
|
with np.errstate(invalid="ignore"): # ignore les 0/0 (-> NaN)
|
||||||
|
etuds_moy_module_s2 = np.sum(
|
||||||
|
evals_poids_etuds_s2 * evals_notes_stacked, axis=1
|
||||||
|
) / np.sum(evals_poids_etuds_s2, axis=1)
|
||||||
|
return etuds_moy_module_s2
|
||||||
|
|
||||||
def apply_bonus(
|
def apply_bonus(
|
||||||
self,
|
self,
|
||||||
etuds_moy_module: pd.DataFrame,
|
etuds_moy_module: pd.DataFrame,
|
||||||
|
@ -515,6 +571,7 @@ def load_evaluations_poids(moduleimpl_id: int) -> tuple[pd.DataFrame, list]:
|
||||||
return evals_poids, ues
|
return evals_poids, ues
|
||||||
|
|
||||||
|
|
||||||
|
# appelé par ModuleImpl.check_apc_conformity()
|
||||||
def moduleimpl_is_conforme(
|
def moduleimpl_is_conforme(
|
||||||
moduleimpl, evals_poids: pd.DataFrame, modimpl_coefs_df: pd.DataFrame
|
moduleimpl, evals_poids: pd.DataFrame, modimpl_coefs_df: pd.DataFrame
|
||||||
) -> bool:
|
) -> bool:
|
||||||
|
@ -536,12 +593,12 @@ def moduleimpl_is_conforme(
|
||||||
if len(modimpl_coefs_df) != nb_ues:
|
if len(modimpl_coefs_df) != nb_ues:
|
||||||
# il arrive (#bug) que le cache ne soit pas à jour...
|
# il arrive (#bug) que le cache ne soit pas à jour...
|
||||||
sco_cache.invalidate_formsemestre()
|
sco_cache.invalidate_formsemestre()
|
||||||
raise ScoBugCatcher("moduleimpl_is_conforme: nb ue incoherent")
|
return app.critical_error("moduleimpl_is_conforme: err 1")
|
||||||
|
|
||||||
if moduleimpl.id not in modimpl_coefs_df:
|
if moduleimpl.id not in modimpl_coefs_df:
|
||||||
# soupçon de bug cache coef ?
|
# soupçon de bug cache coef ?
|
||||||
sco_cache.invalidate_formsemestre()
|
sco_cache.invalidate_formsemestre()
|
||||||
raise ScoBugCatcher("Erreur 454 - merci de ré-essayer")
|
return app.critical_error("moduleimpl_is_conforme: err 2")
|
||||||
|
|
||||||
module_evals_poids = evals_poids.transpose().sum(axis=1) != 0
|
module_evals_poids = evals_poids.transpose().sum(axis=1) != 0
|
||||||
return all((modimpl_coefs_df[moduleimpl.id] != 0).eq(module_evals_poids))
|
return all((modimpl_coefs_df[moduleimpl.id] != 0).eq(module_evals_poids))
|
||||||
|
@ -583,46 +640,43 @@ class ModuleImplResultsClassic(ModuleImplResults):
|
||||||
evals_coefs_etuds * evals_notes_20, axis=1
|
evals_coefs_etuds * evals_notes_20, axis=1
|
||||||
) / np.sum(evals_coefs_etuds, axis=1)
|
) / np.sum(evals_coefs_etuds, axis=1)
|
||||||
|
|
||||||
|
evals_session2 = self.get_evaluations_session2(modimpl)
|
||||||
|
evals_rat = self.get_evaluations_rattrapage(modimpl)
|
||||||
|
if evals_session2:
|
||||||
|
# Session2 : quand elle existe, remplace la note de module
|
||||||
|
# Calcule la moyenne des évaluations de session2
|
||||||
|
etuds_moy_module_s2 = self._compute_moy_special(
|
||||||
|
modimpl, evals_notes_20, Evaluation.EVALUATION_SESSION2
|
||||||
|
)
|
||||||
|
etuds_use_session2 = np.isfinite(etuds_moy_module_s2)
|
||||||
|
etuds_moy_module = np.where(
|
||||||
|
etuds_use_session2,
|
||||||
|
etuds_moy_module_s2,
|
||||||
|
etuds_moy_module,
|
||||||
|
)
|
||||||
|
self.etuds_use_session2 = pd.Series(
|
||||||
|
etuds_use_session2, index=self.evals_notes.index
|
||||||
|
)
|
||||||
|
elif evals_rat:
|
||||||
|
# Rattrapage: remplace la note de module ssi elle est supérieure
|
||||||
|
# Calcule la moyenne des évaluations de rattrapage
|
||||||
|
etuds_moy_module_rat = self._compute_moy_special(
|
||||||
|
modimpl, evals_notes_20, Evaluation.EVALUATION_RATTRAPAGE
|
||||||
|
)
|
||||||
|
etuds_use_rattrapage = etuds_moy_module_rat > etuds_moy_module
|
||||||
|
etuds_moy_module = np.where(
|
||||||
|
etuds_use_rattrapage, etuds_moy_module_rat, etuds_moy_module
|
||||||
|
)
|
||||||
|
self.etuds_use_rattrapage = pd.Series(
|
||||||
|
etuds_use_rattrapage, index=self.evals_notes.index
|
||||||
|
)
|
||||||
|
|
||||||
# Application des évaluations bonus:
|
# Application des évaluations bonus:
|
||||||
etuds_moy_module = self.apply_bonus(
|
etuds_moy_module = self.apply_bonus(
|
||||||
etuds_moy_module,
|
etuds_moy_module,
|
||||||
modimpl,
|
modimpl,
|
||||||
evals_notes_20,
|
evals_notes_20,
|
||||||
)
|
)
|
||||||
|
|
||||||
# Session2 : quand elle existe, remplace la note de module
|
|
||||||
eval_session2 = self.get_evaluation_session2(modimpl)
|
|
||||||
if eval_session2:
|
|
||||||
notes_session2 = self.evals_notes[eval_session2.id].values
|
|
||||||
# n'utilise que les notes valides (pas ATT, EXC, ABS, NaN)
|
|
||||||
etuds_use_session2 = notes_session2 > scu.NOTES_ABSENCE
|
|
||||||
etuds_moy_module = np.where(
|
|
||||||
etuds_use_session2,
|
|
||||||
notes_session2 / (eval_session2.note_max / 20.0),
|
|
||||||
etuds_moy_module,
|
|
||||||
)
|
|
||||||
self.etuds_use_session2 = pd.Series(
|
|
||||||
etuds_use_session2, index=self.evals_notes.index
|
|
||||||
)
|
|
||||||
else:
|
|
||||||
# Rattrapage: remplace la note de module ssi elle est supérieure
|
|
||||||
eval_rat = self.get_evaluation_rattrapage(modimpl)
|
|
||||||
if eval_rat:
|
|
||||||
notes_rat = self.evals_notes[eval_rat.id].values
|
|
||||||
# remplace les notes invalides (ATT, EXC...) par des NaN
|
|
||||||
notes_rat = np.where(
|
|
||||||
notes_rat > scu.NOTES_ABSENCE,
|
|
||||||
notes_rat / (eval_rat.note_max / 20.0),
|
|
||||||
np.nan,
|
|
||||||
)
|
|
||||||
# prend le max
|
|
||||||
etuds_use_rattrapage = notes_rat > etuds_moy_module
|
|
||||||
etuds_moy_module = np.where(
|
|
||||||
etuds_use_rattrapage, notes_rat, etuds_moy_module
|
|
||||||
)
|
|
||||||
self.etuds_use_rattrapage = pd.Series(
|
|
||||||
etuds_use_rattrapage, index=self.evals_notes.index
|
|
||||||
)
|
|
||||||
self.etuds_moy_module = pd.Series(
|
self.etuds_moy_module = pd.Series(
|
||||||
etuds_moy_module,
|
etuds_moy_module,
|
||||||
index=self.evals_notes.index,
|
index=self.evals_notes.index,
|
||||||
|
@ -630,6 +684,28 @@ class ModuleImplResultsClassic(ModuleImplResults):
|
||||||
|
|
||||||
return self.etuds_moy_module
|
return self.etuds_moy_module
|
||||||
|
|
||||||
|
def _compute_moy_special(
|
||||||
|
self, modimpl: ModuleImpl, evals_notes_20: np.array, evaluation_type: int
|
||||||
|
) -> np.array:
|
||||||
|
"""Calcul moyenne sur évals rattrapage ou session2"""
|
||||||
|
# n'utilise que les notes valides et ABS (0).
|
||||||
|
# Même calcul que pour les évals normales, mais avec seulement les
|
||||||
|
# coefs des évals de session 2 ou rattrapage:
|
||||||
|
nb_etuds = self.evals_notes.shape[0]
|
||||||
|
evals_coefs = self.get_evaluations_special_coefs(
|
||||||
|
modimpl, evaluation_type=evaluation_type
|
||||||
|
).reshape(-1)
|
||||||
|
coefs_stacked = np.stack([evals_coefs] * nb_etuds)
|
||||||
|
# zéro partout sauf si une note ou ABS:
|
||||||
|
evals_coefs_etuds = np.where(
|
||||||
|
self.evals_notes.values > scu.NOTES_NEUTRALISE, coefs_stacked, 0
|
||||||
|
)
|
||||||
|
with np.errstate(invalid="ignore"): # ignore les 0/0 (-> NaN)
|
||||||
|
etuds_moy_module = np.sum(
|
||||||
|
evals_coefs_etuds * evals_notes_20, axis=1
|
||||||
|
) / np.sum(evals_coefs_etuds, axis=1)
|
||||||
|
return etuds_moy_module # array 1d (nb_etuds)
|
||||||
|
|
||||||
def apply_bonus(
|
def apply_bonus(
|
||||||
self,
|
self,
|
||||||
etuds_moy_module: np.ndarray,
|
etuds_moy_module: np.ndarray,
|
||||||
|
|
|
@ -99,9 +99,11 @@ def df_load_module_coefs(formation_id: int, semestre_idx: int = None) -> pd.Data
|
||||||
# 0 pour modules normaux, 1. pour bonus (car par défaut, on veut qu'un bonus agisse
|
# 0 pour modules normaux, 1. pour bonus (car par défaut, on veut qu'un bonus agisse
|
||||||
# sur toutes les UE)
|
# sur toutes les UE)
|
||||||
default_poids = {
|
default_poids = {
|
||||||
mod.id: 1.0
|
mod.id: (
|
||||||
if (mod.module_type == ModuleType.STANDARD) and (mod.ue.type == UE_SPORT)
|
1.0
|
||||||
else 0.0
|
if (mod.module_type == ModuleType.STANDARD) and (mod.ue.type == UE_SPORT)
|
||||||
|
else 0.0
|
||||||
|
)
|
||||||
for mod in modules
|
for mod in modules
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -148,10 +150,12 @@ def df_load_modimpl_coefs(
|
||||||
# 0 pour modules normaux, 1. pour bonus (car par défaut, on veut qu'un bonus agisse
|
# 0 pour modules normaux, 1. pour bonus (car par défaut, on veut qu'un bonus agisse
|
||||||
# sur toutes les UE)
|
# sur toutes les UE)
|
||||||
default_poids = {
|
default_poids = {
|
||||||
modimpl.id: 1.0
|
modimpl.id: (
|
||||||
if (modimpl.module.module_type == ModuleType.STANDARD)
|
1.0
|
||||||
and (modimpl.module.ue.type == UE_SPORT)
|
if (modimpl.module.module_type == ModuleType.STANDARD)
|
||||||
else 0.0
|
and (modimpl.module.ue.type == UE_SPORT)
|
||||||
|
else 0.0
|
||||||
|
)
|
||||||
for modimpl in formsemestre.modimpls_sorted
|
for modimpl in formsemestre.modimpls_sorted
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -179,7 +183,9 @@ def notes_sem_assemble_cube(modimpls_notes: list[pd.DataFrame]) -> np.ndarray:
|
||||||
return modimpls_notes.swapaxes(0, 1)
|
return modimpls_notes.swapaxes(0, 1)
|
||||||
|
|
||||||
|
|
||||||
def notes_sem_load_cube(formsemestre: FormSemestre) -> tuple:
|
def notes_sem_load_cube(
|
||||||
|
formsemestre: FormSemestre, modimpl_coefs_df: pd.DataFrame
|
||||||
|
) -> tuple:
|
||||||
"""Construit le "cube" (tenseur) des notes du semestre.
|
"""Construit le "cube" (tenseur) des notes du semestre.
|
||||||
Charge toutes les notes (sql), calcule les moyennes des modules
|
Charge toutes les notes (sql), calcule les moyennes des modules
|
||||||
et assemble le cube.
|
et assemble le cube.
|
||||||
|
@ -200,10 +206,11 @@ def notes_sem_load_cube(formsemestre: FormSemestre) -> tuple:
|
||||||
modimpls_results = {}
|
modimpls_results = {}
|
||||||
modimpls_evals_poids = {}
|
modimpls_evals_poids = {}
|
||||||
modimpls_notes = []
|
modimpls_notes = []
|
||||||
|
etudids, etudids_actifs = formsemestre.etudids_actifs()
|
||||||
for modimpl in formsemestre.modimpls_sorted:
|
for modimpl in formsemestre.modimpls_sorted:
|
||||||
mod_results = moy_mod.ModuleImplResultsAPC(modimpl)
|
mod_results = moy_mod.ModuleImplResultsAPC(modimpl, etudids, etudids_actifs)
|
||||||
evals_poids, _ = moy_mod.load_evaluations_poids(modimpl.id)
|
evals_poids = modimpl.get_evaluations_poids()
|
||||||
etuds_moy_module = mod_results.compute_module_moy(evals_poids)
|
etuds_moy_module = mod_results.compute_module_moy(evals_poids, modimpl_coefs_df)
|
||||||
modimpls_results[modimpl.id] = mod_results
|
modimpls_results[modimpl.id] = mod_results
|
||||||
modimpls_evals_poids[modimpl.id] = evals_poids
|
modimpls_evals_poids[modimpl.id] = evals_poids
|
||||||
modimpls_notes.append(etuds_moy_module)
|
modimpls_notes.append(etuds_moy_module)
|
||||||
|
|
|
@ -59,16 +59,17 @@ class ResultatsSemestreBUT(NotesTableCompat):
|
||||||
|
|
||||||
def compute(self):
|
def compute(self):
|
||||||
"Charge les notes et inscriptions et calcule les moyennes d'UE et gen."
|
"Charge les notes et inscriptions et calcule les moyennes d'UE et gen."
|
||||||
|
self.modimpl_coefs_df, _, _ = moy_ue.df_load_modimpl_coefs(
|
||||||
|
self.formsemestre, modimpls=self.formsemestre.modimpls_sorted
|
||||||
|
)
|
||||||
(
|
(
|
||||||
self.sem_cube,
|
self.sem_cube,
|
||||||
self.modimpls_evals_poids,
|
self.modimpls_evals_poids,
|
||||||
self.modimpls_results,
|
self.modimpls_results,
|
||||||
) = moy_ue.notes_sem_load_cube(self.formsemestre)
|
) = moy_ue.notes_sem_load_cube(self.formsemestre, self.modimpl_coefs_df)
|
||||||
self.modimpl_inscr_df = inscr_mod.df_load_modimpl_inscr(self.formsemestre)
|
self.modimpl_inscr_df = inscr_mod.df_load_modimpl_inscr(self.formsemestre)
|
||||||
self.ues_inscr_parcours_df = self.load_ues_inscr_parcours()
|
self.ues_inscr_parcours_df = self.load_ues_inscr_parcours()
|
||||||
self.modimpl_coefs_df, _, _ = moy_ue.df_load_modimpl_coefs(
|
|
||||||
self.formsemestre, modimpls=self.formsemestre.modimpls_sorted
|
|
||||||
)
|
|
||||||
# l'idx de la colonne du mod modimpl.id est
|
# l'idx de la colonne du mod modimpl.id est
|
||||||
# modimpl_coefs_df.columns.get_loc(modimpl.id)
|
# modimpl_coefs_df.columns.get_loc(modimpl.id)
|
||||||
# idx de l'UE: modimpl_coefs_df.index.get_loc(ue.id)
|
# idx de l'UE: modimpl_coefs_df.index.get_loc(ue.id)
|
||||||
|
|
|
@ -242,7 +242,8 @@ class ResultatsSemestreClassic(NotesTableCompat):
|
||||||
)
|
)
|
||||||
}">saisir le coefficient de cette UE avant de continuer</a></p>
|
}">saisir le coefficient de cette UE avant de continuer</a></p>
|
||||||
</div>
|
</div>
|
||||||
"""
|
""",
|
||||||
|
safe=True,
|
||||||
)
|
)
|
||||||
|
|
||||||
|
|
||||||
|
@ -256,8 +257,9 @@ def notes_sem_load_matrix(formsemestre: FormSemestre) -> tuple[np.ndarray, dict]
|
||||||
"""
|
"""
|
||||||
modimpls_results = {}
|
modimpls_results = {}
|
||||||
modimpls_notes = []
|
modimpls_notes = []
|
||||||
|
etudids, etudids_actifs = formsemestre.etudids_actifs()
|
||||||
for modimpl in formsemestre.modimpls_sorted:
|
for modimpl in formsemestre.modimpls_sorted:
|
||||||
mod_results = moy_mod.ModuleImplResultsClassic(modimpl)
|
mod_results = moy_mod.ModuleImplResultsClassic(modimpl, etudids, etudids_actifs)
|
||||||
etuds_moy_module = mod_results.compute_module_moy()
|
etuds_moy_module = mod_results.compute_module_moy()
|
||||||
modimpls_results[modimpl.id] = mod_results
|
modimpls_results[modimpl.id] = mod_results
|
||||||
modimpls_notes.append(etuds_moy_module)
|
modimpls_notes.append(etuds_moy_module)
|
||||||
|
|
|
@ -205,9 +205,11 @@ class ResultatsSemestre(ResultatsCache):
|
||||||
"coefficient" : float, # 0 si None
|
"coefficient" : float, # 0 si None
|
||||||
"description" : str, # de l'évaluation, "" si None
|
"description" : str, # de l'évaluation, "" si None
|
||||||
"etat" {
|
"etat" {
|
||||||
|
"blocked" : bool, # vrai si prise en compte bloquée
|
||||||
"evalcomplete" : bool,
|
"evalcomplete" : bool,
|
||||||
"last_modif" : datetime.datetime | None, # saisie de note la plus récente
|
"last_modif" : datetime.datetime | None, # saisie de note la plus récente
|
||||||
"nb_notes" : int, # nb notes d'étudiants inscrits
|
"nb_notes" : int, # nb notes d'étudiants inscrits
|
||||||
|
"nb_attente" : int, # nb de notes en ATTente (même si bloquée)
|
||||||
},
|
},
|
||||||
"evaluation_id" : int,
|
"evaluation_id" : int,
|
||||||
"jour" : datetime.datetime, # e.date_debut or datetime.datetime(1900, 1, 1)
|
"jour" : datetime.datetime, # e.date_debut or datetime.datetime(1900, 1, 1)
|
||||||
|
@ -232,13 +234,15 @@ class ResultatsSemestre(ResultatsCache):
|
||||||
return {
|
return {
|
||||||
"coefficient": evaluation.coefficient,
|
"coefficient": evaluation.coefficient,
|
||||||
"description": evaluation.description,
|
"description": evaluation.description,
|
||||||
"evaluation_id": evaluation.id,
|
|
||||||
"jour": evaluation.date_debut or datetime.datetime(1900, 1, 1),
|
|
||||||
"etat": {
|
"etat": {
|
||||||
|
"blocked": evaluation.is_blocked(),
|
||||||
"evalcomplete": etat.is_complete,
|
"evalcomplete": etat.is_complete,
|
||||||
|
"nb_attente": etat.nb_attente,
|
||||||
"nb_notes": etat.nb_notes,
|
"nb_notes": etat.nb_notes,
|
||||||
"last_modif": last_modif,
|
"last_modif": last_modif,
|
||||||
},
|
},
|
||||||
|
"evaluation_id": evaluation.id,
|
||||||
|
"jour": evaluation.date_debut or datetime.datetime(1900, 1, 1),
|
||||||
"publish_incomplete": evaluation.publish_incomplete,
|
"publish_incomplete": evaluation.publish_incomplete,
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -432,9 +436,9 @@ class ResultatsSemestre(ResultatsCache):
|
||||||
ue_cap_dict["compense_formsemestre_id"] = None
|
ue_cap_dict["compense_formsemestre_id"] = None
|
||||||
return ue_cap_dict
|
return ue_cap_dict
|
||||||
|
|
||||||
def get_etud_ue_status(self, etudid: int, ue_id: int) -> dict:
|
def get_etud_ue_status(self, etudid: int, ue_id: int) -> dict | None:
|
||||||
"""L'état de l'UE pour cet étudiant.
|
"""L'état de l'UE pour cet étudiant.
|
||||||
Result: dict, ou None si l'UE n'est pas dans ce semestre.
|
Result: dict, ou None si l'UE n'existe pas ou n'est pas dans ce semestre.
|
||||||
{
|
{
|
||||||
"is_capitalized": # vrai si la version capitalisée est celle prise en compte (meilleure)
|
"is_capitalized": # vrai si la version capitalisée est celle prise en compte (meilleure)
|
||||||
"was_capitalized":# si elle a été capitalisée (meilleure ou pas)
|
"was_capitalized":# si elle a été capitalisée (meilleure ou pas)
|
||||||
|
@ -452,6 +456,8 @@ class ResultatsSemestre(ResultatsCache):
|
||||||
}
|
}
|
||||||
"""
|
"""
|
||||||
ue: UniteEns = db.session.get(UniteEns, ue_id)
|
ue: UniteEns = db.session.get(UniteEns, ue_id)
|
||||||
|
if not ue:
|
||||||
|
return None
|
||||||
ue_dict = ue.to_dict()
|
ue_dict = ue.to_dict()
|
||||||
|
|
||||||
if ue.type == UE_SPORT:
|
if ue.type == UE_SPORT:
|
||||||
|
@ -470,7 +476,7 @@ class ResultatsSemestre(ResultatsCache):
|
||||||
"ects": 0.0,
|
"ects": 0.0,
|
||||||
"ects_ue": ue.ects,
|
"ects_ue": ue.ects,
|
||||||
}
|
}
|
||||||
if not ue_id in self.etud_moy_ue:
|
if not ue_id in self.etud_moy_ue or not etudid in self.etud_moy_ue[ue_id]:
|
||||||
return None
|
return None
|
||||||
if not self.validations:
|
if not self.validations:
|
||||||
self.validations = res_sem.load_formsemestre_validations(self.formsemestre)
|
self.validations = res_sem.load_formsemestre_validations(self.formsemestre)
|
||||||
|
@ -512,7 +518,8 @@ class ResultatsSemestre(ResultatsCache):
|
||||||
Corrigez ou faite corriger le programme
|
Corrigez ou faite corriger le programme
|
||||||
<a href="{url_for('notes.ue_table', scodoc_dept=g.scodoc_dept,
|
<a href="{url_for('notes.ue_table', scodoc_dept=g.scodoc_dept,
|
||||||
formation_id=ue_capitalized.formation_id)}">via cette page</a>.
|
formation_id=ue_capitalized.formation_id)}">via cette page</a>.
|
||||||
"""
|
""",
|
||||||
|
safe=True,
|
||||||
)
|
)
|
||||||
else:
|
else:
|
||||||
# Coefs de l'UE capitalisée en formation classique:
|
# Coefs de l'UE capitalisée en formation classique:
|
||||||
|
|
22
app/email.py
22
app/email.py
|
@ -5,12 +5,13 @@
|
||||||
# See LICENSE
|
# See LICENSE
|
||||||
##############################################################################
|
##############################################################################
|
||||||
|
|
||||||
|
import datetime
|
||||||
from threading import Thread
|
from threading import Thread
|
||||||
|
|
||||||
from flask import current_app, g
|
from flask import current_app, g
|
||||||
from flask_mail import Message
|
from flask_mail import BadHeaderError, Message
|
||||||
|
|
||||||
from app import mail
|
from app import log, mail
|
||||||
from app.models.departements import Departement
|
from app.models.departements import Departement
|
||||||
from app.models.config import ScoDocSiteConfig
|
from app.models.config import ScoDocSiteConfig
|
||||||
from app.scodoc import sco_preferences
|
from app.scodoc import sco_preferences
|
||||||
|
@ -19,7 +20,15 @@ from app.scodoc import sco_preferences
|
||||||
def send_async_email(app, msg):
|
def send_async_email(app, msg):
|
||||||
"Send an email, async"
|
"Send an email, async"
|
||||||
with app.app_context():
|
with app.app_context():
|
||||||
mail.send(msg)
|
try:
|
||||||
|
mail.send(msg)
|
||||||
|
except BadHeaderError:
|
||||||
|
log(
|
||||||
|
f"""send_async_email: BadHeaderError
|
||||||
|
msg={msg}
|
||||||
|
"""
|
||||||
|
)
|
||||||
|
raise
|
||||||
|
|
||||||
|
|
||||||
def send_email(
|
def send_email(
|
||||||
|
@ -83,9 +92,12 @@ Adresses d'origine:
|
||||||
\n\n"""
|
\n\n"""
|
||||||
+ msg.body
|
+ msg.body
|
||||||
)
|
)
|
||||||
|
now = datetime.datetime.now()
|
||||||
|
formatted_time = now.strftime("%Y-%m-%d %H:%M:%S") + ".{:03d}".format(
|
||||||
|
now.microsecond // 1000
|
||||||
|
)
|
||||||
current_app.logger.info(
|
current_app.logger.info(
|
||||||
f"""email sent to{
|
f"""[{formatted_time}] email sent to{
|
||||||
' (mode test)' if email_test_mode_address else ''
|
' (mode test)' if email_test_mode_address else ''
|
||||||
}: {msg.recipients}
|
}: {msg.recipients}
|
||||||
from sender {msg.sender}
|
from sender {msg.sender}
|
||||||
|
|
|
@ -59,3 +59,4 @@ def check_taxe_now(taxes):
|
||||||
|
|
||||||
|
|
||||||
from app.entreprises import routes
|
from app.entreprises import routes
|
||||||
|
from app.entreprises.activate import activate_module
|
||||||
|
|
31
app/entreprises/activate.py
Normal file
31
app/entreprises/activate.py
Normal file
|
@ -0,0 +1,31 @@
|
||||||
|
##############################################################################
|
||||||
|
# ScoDoc
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
# See LICENSE
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""Activation du module entreprises
|
||||||
|
|
||||||
|
L'affichage du module est contrôlé par la config ScoDocConfig.enable_entreprises
|
||||||
|
|
||||||
|
Au moment de l'activation, il est en général utile de proposer de configurer les
|
||||||
|
permissions de rôles standards: AdminEntreprise UtilisateurEntreprise ObservateurEntreprise
|
||||||
|
|
||||||
|
Voir associations dans sco_roles_default
|
||||||
|
|
||||||
|
"""
|
||||||
|
from app.auth.models import Role
|
||||||
|
from app.models import ScoDocSiteConfig
|
||||||
|
from app.scodoc.sco_roles_default import SCO_ROLES_ENTREPRISES_DEFAULT
|
||||||
|
|
||||||
|
|
||||||
|
def activate_module(
|
||||||
|
enable: bool = True, set_default_roles_permission: bool = False
|
||||||
|
) -> bool:
|
||||||
|
"""Active le module et en option donne les permissions aux rôles standards.
|
||||||
|
True si l'état d'activation a changé.
|
||||||
|
"""
|
||||||
|
change = ScoDocSiteConfig.enable_entreprises(enable)
|
||||||
|
if enable and set_default_roles_permission:
|
||||||
|
Role.reset_roles_permissions(SCO_ROLES_ENTREPRISES_DEFAULT)
|
||||||
|
return change
|
|
@ -338,9 +338,11 @@ def add_entreprise():
|
||||||
if form.validate_on_submit():
|
if form.validate_on_submit():
|
||||||
entreprise = Entreprise(
|
entreprise = Entreprise(
|
||||||
nom=form.nom_entreprise.data.strip(),
|
nom=form.nom_entreprise.data.strip(),
|
||||||
siret=form.siret.data.strip()
|
siret=(
|
||||||
if form.siret.data.strip()
|
form.siret.data.strip()
|
||||||
else f"{SIRET_PROVISOIRE_START}{datetime.now().strftime('%d%m%y%H%M%S')}", # siret provisoire
|
if form.siret.data.strip()
|
||||||
|
else f"{SIRET_PROVISOIRE_START}{datetime.now().strftime('%d%m%y%H%M%S')}"
|
||||||
|
), # siret provisoire
|
||||||
siret_provisoire=False if form.siret.data.strip() else True,
|
siret_provisoire=False if form.siret.data.strip() else True,
|
||||||
association=form.association.data,
|
association=form.association.data,
|
||||||
adresse=form.adresse.data.strip(),
|
adresse=form.adresse.data.strip(),
|
||||||
|
@ -352,7 +354,7 @@ def add_entreprise():
|
||||||
db.session.add(entreprise)
|
db.session.add(entreprise)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
db.session.refresh(entreprise)
|
db.session.refresh(entreprise)
|
||||||
except:
|
except Exception:
|
||||||
db.session.rollback()
|
db.session.rollback()
|
||||||
flash("Une erreur est survenue veuillez réessayer.")
|
flash("Une erreur est survenue veuillez réessayer.")
|
||||||
return render_template(
|
return render_template(
|
||||||
|
@ -804,9 +806,9 @@ def add_offre(entreprise_id):
|
||||||
missions=form.missions.data.strip(),
|
missions=form.missions.data.strip(),
|
||||||
duree=form.duree.data.strip(),
|
duree=form.duree.data.strip(),
|
||||||
expiration_date=form.expiration_date.data,
|
expiration_date=form.expiration_date.data,
|
||||||
correspondant_id=form.correspondant.data
|
correspondant_id=(
|
||||||
if form.correspondant.data != ""
|
form.correspondant.data if form.correspondant.data != "" else None
|
||||||
else None,
|
),
|
||||||
)
|
)
|
||||||
db.session.add(offre)
|
db.session.add(offre)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
|
@ -1328,9 +1330,11 @@ def add_contact(entreprise_id):
|
||||||
).first_or_404(description=f"entreprise {entreprise_id} inconnue")
|
).first_or_404(description=f"entreprise {entreprise_id} inconnue")
|
||||||
form = ContactCreationForm(
|
form = ContactCreationForm(
|
||||||
date=f"{datetime.now().strftime('%Y-%m-%dT%H:%M')}",
|
date=f"{datetime.now().strftime('%Y-%m-%dT%H:%M')}",
|
||||||
utilisateur=f"{current_user.nom} {current_user.prenom} ({current_user.user_name})"
|
utilisateur=(
|
||||||
if current_user.nom and current_user.prenom
|
f"{current_user.nom} {current_user.prenom} ({current_user.user_name})"
|
||||||
else "",
|
if current_user.nom and current_user.prenom
|
||||||
|
else ""
|
||||||
|
),
|
||||||
)
|
)
|
||||||
if request.method == "POST" and form.cancel.data:
|
if request.method == "POST" and form.cancel.data:
|
||||||
return redirect(url_for("entreprises.contacts", entreprise_id=entreprise_id))
|
return redirect(url_for("entreprises.contacts", entreprise_id=entreprise_id))
|
||||||
|
@ -1496,9 +1500,9 @@ def add_stage_apprentissage(entreprise_id):
|
||||||
date_debut=form.date_debut.data,
|
date_debut=form.date_debut.data,
|
||||||
date_fin=form.date_fin.data,
|
date_fin=form.date_fin.data,
|
||||||
formation_text=formation.formsemestre.titre if formation else None,
|
formation_text=formation.formsemestre.titre if formation else None,
|
||||||
formation_scodoc=formation.formsemestre.formsemestre_id
|
formation_scodoc=(
|
||||||
if formation
|
formation.formsemestre.formsemestre_id if formation else None
|
||||||
else None,
|
),
|
||||||
notes=form.notes.data.strip(),
|
notes=form.notes.data.strip(),
|
||||||
)
|
)
|
||||||
db.session.add(stage_apprentissage)
|
db.session.add(stage_apprentissage)
|
||||||
|
@ -1802,7 +1806,7 @@ def import_donnees():
|
||||||
db.session.add(entreprise)
|
db.session.add(entreprise)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
db.session.refresh(entreprise)
|
db.session.refresh(entreprise)
|
||||||
except:
|
except Exception:
|
||||||
db.session.rollback()
|
db.session.rollback()
|
||||||
flash("Une erreur est survenue veuillez réessayer.")
|
flash("Une erreur est survenue veuillez réessayer.")
|
||||||
return render_template(
|
return render_template(
|
||||||
|
|
|
@ -62,6 +62,11 @@ class AjoutAssiOrJustForm(FlaskForm):
|
||||||
if field:
|
if field:
|
||||||
field.errors.append(err_msg)
|
field.errors.append(err_msg)
|
||||||
|
|
||||||
|
def disable_all(self):
|
||||||
|
"Disable all fields"
|
||||||
|
for field in self:
|
||||||
|
field.render_kw = {"disabled": True}
|
||||||
|
|
||||||
date_debut = StringField(
|
date_debut = StringField(
|
||||||
"Date de début",
|
"Date de début",
|
||||||
validators=[validators.Length(max=10)],
|
validators=[validators.Length(max=10)],
|
||||||
|
@ -126,6 +131,7 @@ class AjoutAssiOrJustForm(FlaskForm):
|
||||||
|
|
||||||
class AjoutAssiduiteEtudForm(AjoutAssiOrJustForm):
|
class AjoutAssiduiteEtudForm(AjoutAssiOrJustForm):
|
||||||
"Formulaire de saisie d'une assiduité pour un étudiant"
|
"Formulaire de saisie d'une assiduité pour un étudiant"
|
||||||
|
|
||||||
description = TextAreaField(
|
description = TextAreaField(
|
||||||
"Description",
|
"Description",
|
||||||
render_kw={
|
render_kw={
|
||||||
|
@ -152,6 +158,7 @@ class AjoutAssiduiteEtudForm(AjoutAssiOrJustForm):
|
||||||
|
|
||||||
class AjoutJustificatifEtudForm(AjoutAssiOrJustForm):
|
class AjoutJustificatifEtudForm(AjoutAssiOrJustForm):
|
||||||
"Formulaire de saisie d'un justificatif pour un étudiant"
|
"Formulaire de saisie d'un justificatif pour un étudiant"
|
||||||
|
|
||||||
raison = TextAreaField(
|
raison = TextAreaField(
|
||||||
"Raison",
|
"Raison",
|
||||||
render_kw={
|
render_kw={
|
||||||
|
@ -173,30 +180,3 @@ class AjoutJustificatifEtudForm(AjoutAssiOrJustForm):
|
||||||
validators=[DataRequired(message="This field is required.")],
|
validators=[DataRequired(message="This field is required.")],
|
||||||
)
|
)
|
||||||
fichiers = MultipleFileField(label="Ajouter des fichiers")
|
fichiers = MultipleFileField(label="Ajouter des fichiers")
|
||||||
|
|
||||||
|
|
||||||
class ChoixDateForm(FlaskForm):
|
|
||||||
def __init__(self, *args, **kwargs):
|
|
||||||
"Init form, adding a filed for our error messages"
|
|
||||||
super().__init__(*args, **kwargs)
|
|
||||||
self.ok = True
|
|
||||||
self.error_messages: list[str] = [] # used to report our errors
|
|
||||||
|
|
||||||
def set_error(self, err_msg, field=None):
|
|
||||||
"Set error message both in form and field"
|
|
||||||
self.ok = False
|
|
||||||
self.error_messages.append(err_msg)
|
|
||||||
if field:
|
|
||||||
field.errors.append(err_msg)
|
|
||||||
|
|
||||||
date = StringField(
|
|
||||||
"Date",
|
|
||||||
validators=[validators.Length(max=10)],
|
|
||||||
render_kw={
|
|
||||||
"class": "datepicker",
|
|
||||||
"size": 10,
|
|
||||||
"id": "date",
|
|
||||||
},
|
|
||||||
)
|
|
||||||
submit = SubmitField("Enregistrer")
|
|
||||||
cancel = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
|
||||||
|
|
122
app/forms/assiduite/edit_assiduite_etud.py
Normal file
122
app/forms/assiduite/edit_assiduite_etud.py
Normal file
|
@ -0,0 +1,122 @@
|
||||||
|
""" """
|
||||||
|
|
||||||
|
from flask_wtf import FlaskForm
|
||||||
|
from wtforms import (
|
||||||
|
StringField,
|
||||||
|
SelectField,
|
||||||
|
RadioField,
|
||||||
|
TextAreaField,
|
||||||
|
validators,
|
||||||
|
SubmitField,
|
||||||
|
)
|
||||||
|
from app.scodoc.sco_utils import EtatAssiduite
|
||||||
|
|
||||||
|
|
||||||
|
class EditAssiForm(FlaskForm):
|
||||||
|
"""
|
||||||
|
Formulaire de modification d'une assiduité
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, *args, **kwargs):
|
||||||
|
"Init form, adding a filed for our error messages"
|
||||||
|
super().__init__(*args, **kwargs)
|
||||||
|
self.ok = True
|
||||||
|
self.error_messages: list[str] = [] # used to report our errors
|
||||||
|
|
||||||
|
def set_error(self, err_msg, field=None):
|
||||||
|
"Set error message both in form and field"
|
||||||
|
self.ok = False
|
||||||
|
self.error_messages.append(err_msg)
|
||||||
|
if field:
|
||||||
|
field.errors.append(err_msg)
|
||||||
|
|
||||||
|
def disable_all(self):
|
||||||
|
"Disable all fields"
|
||||||
|
for field in self:
|
||||||
|
field.render_kw = {"disabled": True}
|
||||||
|
|
||||||
|
assi_etat = RadioField(
|
||||||
|
"État:",
|
||||||
|
choices=[
|
||||||
|
(EtatAssiduite.ABSENT.value, EtatAssiduite.ABSENT.version_lisible()),
|
||||||
|
(EtatAssiduite.RETARD.value, EtatAssiduite.RETARD.version_lisible()),
|
||||||
|
(EtatAssiduite.PRESENT.value, EtatAssiduite.PRESENT.version_lisible()),
|
||||||
|
],
|
||||||
|
default="absent",
|
||||||
|
validators=[
|
||||||
|
validators.DataRequired("spécifiez le type d'évènement à signaler"),
|
||||||
|
],
|
||||||
|
)
|
||||||
|
modimpl = SelectField(
|
||||||
|
"Module",
|
||||||
|
choices={}, # will be populated dynamically
|
||||||
|
)
|
||||||
|
description = TextAreaField(
|
||||||
|
"Description",
|
||||||
|
render_kw={
|
||||||
|
"id": "description",
|
||||||
|
"cols": 75,
|
||||||
|
"rows": 4,
|
||||||
|
"maxlength": 500,
|
||||||
|
},
|
||||||
|
)
|
||||||
|
date_debut = StringField(
|
||||||
|
"Date de début",
|
||||||
|
validators=[validators.Length(max=10)],
|
||||||
|
render_kw={
|
||||||
|
"class": "datepicker",
|
||||||
|
"size": 10,
|
||||||
|
"id": "assi_date_debut",
|
||||||
|
},
|
||||||
|
)
|
||||||
|
heure_debut = StringField(
|
||||||
|
"Heure début",
|
||||||
|
default="",
|
||||||
|
validators=[validators.Length(max=5)],
|
||||||
|
render_kw={
|
||||||
|
"class": "timepicker",
|
||||||
|
"size": 5,
|
||||||
|
"id": "assi_heure_debut",
|
||||||
|
},
|
||||||
|
)
|
||||||
|
heure_fin = StringField(
|
||||||
|
"Heure fin",
|
||||||
|
default="",
|
||||||
|
validators=[validators.Length(max=5)],
|
||||||
|
render_kw={
|
||||||
|
"class": "timepicker",
|
||||||
|
"size": 5,
|
||||||
|
"id": "assi_heure_fin",
|
||||||
|
},
|
||||||
|
)
|
||||||
|
date_fin = StringField(
|
||||||
|
"Date de fin",
|
||||||
|
validators=[validators.Length(max=10)],
|
||||||
|
render_kw={
|
||||||
|
"class": "datepicker",
|
||||||
|
"size": 10,
|
||||||
|
"id": "assi_date_fin",
|
||||||
|
},
|
||||||
|
)
|
||||||
|
entry_date = StringField(
|
||||||
|
"Date de dépôt ou saisie",
|
||||||
|
validators=[validators.Length(max=10)],
|
||||||
|
render_kw={
|
||||||
|
"class": "datepicker",
|
||||||
|
"size": 10,
|
||||||
|
"id": "entry_date",
|
||||||
|
},
|
||||||
|
)
|
||||||
|
entry_time = StringField(
|
||||||
|
"Heure dépôt",
|
||||||
|
default="",
|
||||||
|
validators=[validators.Length(max=5)],
|
||||||
|
render_kw={
|
||||||
|
"class": "timepicker",
|
||||||
|
"size": 5,
|
||||||
|
"id": "assi_heure_fin",
|
||||||
|
},
|
||||||
|
)
|
||||||
|
|
||||||
|
submit = SubmitField("Enregistrer")
|
||||||
|
cancel = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
17
app/forms/main/activate_entreprises.py
Normal file
17
app/forms/main/activate_entreprises.py
Normal file
|
@ -0,0 +1,17 @@
|
||||||
|
"""
|
||||||
|
Formulaire activation module entreprises
|
||||||
|
"""
|
||||||
|
|
||||||
|
from flask_wtf import FlaskForm
|
||||||
|
from wtforms.fields.simple import BooleanField, SubmitField
|
||||||
|
|
||||||
|
from app.models import ScoDocSiteConfig
|
||||||
|
|
||||||
|
|
||||||
|
class ActivateEntreprisesForm(FlaskForm):
|
||||||
|
"Formulaire activation module entreprises"
|
||||||
|
set_default_roles_permission = BooleanField(
|
||||||
|
"(re)mettre les rôles 'Entreprise' à leurs valeurs par défaut"
|
||||||
|
)
|
||||||
|
submit = SubmitField("Valider")
|
||||||
|
cancel = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
|
@ -48,13 +48,15 @@ class BonusConfigurationForm(FlaskForm):
|
||||||
for (name, displayed_name) in ScoDocSiteConfig.get_bonus_sport_class_list()
|
for (name, displayed_name) in ScoDocSiteConfig.get_bonus_sport_class_list()
|
||||||
],
|
],
|
||||||
)
|
)
|
||||||
submit_bonus = SubmitField("Valider")
|
submit_bonus = SubmitField("Enregistrer ce bonus")
|
||||||
cancel_bonus = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
cancel_bonus = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
||||||
|
|
||||||
|
|
||||||
class ScoDocConfigurationForm(FlaskForm):
|
class ScoDocConfigurationForm(FlaskForm):
|
||||||
"Panneau de configuration avancée"
|
"Panneau de configuration avancée"
|
||||||
enable_entreprises = BooleanField("activer le module <em>entreprises</em>")
|
disable_passerelle = BooleanField( # disable car par défaut activée
|
||||||
|
"""cacher les fonctions liées à une passerelle de publication des résultats vers les étudiants ("œil"). N'affecte pas l'API, juste la présentation."""
|
||||||
|
)
|
||||||
month_debut_annee_scolaire = SelectField(
|
month_debut_annee_scolaire = SelectField(
|
||||||
label="Mois de début des années scolaires",
|
label="Mois de début des années scolaires",
|
||||||
description="""Date pivot. En France métropolitaine, août.
|
description="""Date pivot. En France métropolitaine, août.
|
||||||
|
@ -83,7 +85,7 @@ class ScoDocConfigurationForm(FlaskForm):
|
||||||
disable_bul_pdf = BooleanField(
|
disable_bul_pdf = BooleanField(
|
||||||
"interdire les exports des bulletins en PDF (déconseillé)"
|
"interdire les exports des bulletins en PDF (déconseillé)"
|
||||||
)
|
)
|
||||||
submit_scodoc = SubmitField("Valider")
|
submit_scodoc = SubmitField("Enregistrer ces paramètres")
|
||||||
cancel_scodoc = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
cancel_scodoc = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
||||||
|
|
||||||
|
|
||||||
|
@ -98,6 +100,7 @@ def configuration():
|
||||||
form_scodoc = ScoDocConfigurationForm(
|
form_scodoc = ScoDocConfigurationForm(
|
||||||
data={
|
data={
|
||||||
"enable_entreprises": ScoDocSiteConfig.is_entreprises_enabled(),
|
"enable_entreprises": ScoDocSiteConfig.is_entreprises_enabled(),
|
||||||
|
"disable_passerelle": ScoDocSiteConfig.is_passerelle_disabled(),
|
||||||
"month_debut_annee_scolaire": ScoDocSiteConfig.get_month_debut_annee_scolaire(),
|
"month_debut_annee_scolaire": ScoDocSiteConfig.get_month_debut_annee_scolaire(),
|
||||||
"month_debut_periode2": ScoDocSiteConfig.get_month_debut_periode2(),
|
"month_debut_periode2": ScoDocSiteConfig.get_month_debut_periode2(),
|
||||||
"email_from_addr": ScoDocSiteConfig.get("email_from_addr"),
|
"email_from_addr": ScoDocSiteConfig.get("email_from_addr"),
|
||||||
|
@ -123,12 +126,12 @@ def configuration():
|
||||||
flash("Fonction bonus inchangée.")
|
flash("Fonction bonus inchangée.")
|
||||||
return redirect(url_for("scodoc.index"))
|
return redirect(url_for("scodoc.index"))
|
||||||
elif form_scodoc.submit_scodoc.data and form_scodoc.validate():
|
elif form_scodoc.submit_scodoc.data and form_scodoc.validate():
|
||||||
if ScoDocSiteConfig.enable_entreprises(
|
if ScoDocSiteConfig.disable_passerelle(
|
||||||
enabled=form_scodoc.data["enable_entreprises"]
|
disabled=form_scodoc.data["disable_passerelle"]
|
||||||
):
|
):
|
||||||
flash(
|
flash(
|
||||||
"Module entreprise "
|
"Fonction passerelle "
|
||||||
+ ("activé" if form_scodoc.data["enable_entreprises"] else "désactivé")
|
+ ("cachées" if form_scodoc.data["disable_passerelle"] else "montrées")
|
||||||
)
|
)
|
||||||
if ScoDocSiteConfig.set_month_debut_annee_scolaire(
|
if ScoDocSiteConfig.set_month_debut_annee_scolaire(
|
||||||
int(form_scodoc.data["month_debut_annee_scolaire"])
|
int(form_scodoc.data["month_debut_annee_scolaire"])
|
||||||
|
@ -171,6 +174,7 @@ def configuration():
|
||||||
|
|
||||||
return render_template(
|
return render_template(
|
||||||
"configuration.j2",
|
"configuration.j2",
|
||||||
|
is_entreprises_enabled=ScoDocSiteConfig.is_entreprises_enabled(),
|
||||||
form_bonus=form_bonus,
|
form_bonus=form_bonus,
|
||||||
form_scodoc=form_scodoc,
|
form_scodoc=form_scodoc,
|
||||||
scu=scu,
|
scu=scu,
|
||||||
|
|
66
app/forms/main/create_bug_report.py
Normal file
66
app/forms/main/create_bug_report.py
Normal file
|
@ -0,0 +1,66 @@
|
||||||
|
# -*- mode: python -*-
|
||||||
|
# -*- coding: utf-8 -*-
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# ScoDoc
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Formulaire création de ticket de bug
|
||||||
|
"""
|
||||||
|
|
||||||
|
from flask_wtf import FlaskForm
|
||||||
|
from wtforms import SubmitField, validators
|
||||||
|
from wtforms.fields.simple import StringField, TextAreaField, BooleanField
|
||||||
|
from app.scodoc import sco_preferences
|
||||||
|
|
||||||
|
|
||||||
|
class CreateBugReport(FlaskForm):
|
||||||
|
"""Formulaire permettant la création d'un ticket de bug"""
|
||||||
|
|
||||||
|
title = StringField(
|
||||||
|
label="Titre du ticket",
|
||||||
|
validators=[
|
||||||
|
validators.DataRequired("titre du ticket requis"),
|
||||||
|
],
|
||||||
|
)
|
||||||
|
message = TextAreaField(
|
||||||
|
label="Message",
|
||||||
|
id="ticket_message",
|
||||||
|
validators=[
|
||||||
|
validators.DataRequired("message du ticket requis"),
|
||||||
|
],
|
||||||
|
)
|
||||||
|
etab = StringField(label="Etablissement")
|
||||||
|
include_dump = BooleanField(
|
||||||
|
"""Inclure une copie anonymisée de la base de données ?
|
||||||
|
Ces données faciliteront le traitement du problème et resteront strictement confidentielles.
|
||||||
|
""",
|
||||||
|
default=False,
|
||||||
|
)
|
||||||
|
submit = SubmitField("Envoyer")
|
||||||
|
cancel = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
||||||
|
|
||||||
|
def __init__(self, *args, **kwargs):
|
||||||
|
super(CreateBugReport, self).__init__(*args, **kwargs)
|
||||||
|
self.etab.data = sco_preferences.get_preference("InstituteName") or ""
|
65
app/forms/pe/pe_sem_recap.py
Normal file
65
app/forms/pe/pe_sem_recap.py
Normal file
|
@ -0,0 +1,65 @@
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# ScoDoc
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Formulaire options génération table poursuite études (PE)
|
||||||
|
"""
|
||||||
|
|
||||||
|
from flask_wtf import FlaskForm
|
||||||
|
from wtforms import BooleanField, HiddenField, SubmitField
|
||||||
|
|
||||||
|
|
||||||
|
class ParametrageClasseurPE(FlaskForm):
|
||||||
|
"Formulaire paramétrage génération classeur PE"
|
||||||
|
# cohorte_restreinte = BooleanField(
|
||||||
|
# "Restreindre aux étudiants inscrits dans le semestre (sans interclassement de promotion) (à venir)"
|
||||||
|
# )
|
||||||
|
moyennes_tags = BooleanField(
|
||||||
|
"Générer les moyennes sur les tags de modules personnalisés (cf. programme de formation)",
|
||||||
|
default=True,
|
||||||
|
render_kw={"checked": ""},
|
||||||
|
)
|
||||||
|
moyennes_ue_res_sae = BooleanField(
|
||||||
|
"Générer les moyennes des ressources et des SAEs",
|
||||||
|
default=True,
|
||||||
|
render_kw={"checked": ""},
|
||||||
|
)
|
||||||
|
moyennes_ues_rcues = BooleanField(
|
||||||
|
"Générer les moyennes par RCUEs (compétences) et leurs synthèses HTML étudiant par étudiant",
|
||||||
|
default=True,
|
||||||
|
render_kw={"checked": ""},
|
||||||
|
)
|
||||||
|
|
||||||
|
min_max_moy = BooleanField("Afficher les colonnes min/max/moy")
|
||||||
|
|
||||||
|
# synthese_individuelle_etud = BooleanField(
|
||||||
|
# "Générer (suppose les RCUES)"
|
||||||
|
# )
|
||||||
|
publipostage = BooleanField(
|
||||||
|
"Nomme les moyennes pour publipostage",
|
||||||
|
# default=False,
|
||||||
|
# render_kw={"checked": ""},
|
||||||
|
)
|
||||||
|
submit = SubmitField("Générer les classeurs poursuites d'études")
|
||||||
|
cancel = SubmitField("Annuler", render_kw={"formnovalidate": True})
|
|
@ -1,11 +1,10 @@
|
||||||
# -*- coding: UTF-8 -*
|
# -*- coding: UTF-8 -*
|
||||||
"""Gestion de l'assiduité (assiduités + justificatifs)
|
"""Gestion de l'assiduité (assiduités + justificatifs)"""
|
||||||
"""
|
|
||||||
from datetime import datetime
|
from datetime import datetime
|
||||||
|
|
||||||
from flask_login import current_user
|
from flask_login import current_user
|
||||||
from flask_sqlalchemy.query import Query
|
from flask_sqlalchemy.query import Query
|
||||||
from sqlalchemy.exc import DataError
|
|
||||||
|
|
||||||
from app import db, log, g, set_sco_dept
|
from app import db, log, g, set_sco_dept
|
||||||
from app.models import (
|
from app.models import (
|
||||||
|
@ -22,6 +21,7 @@ from app.scodoc import sco_abs_notification
|
||||||
from app.scodoc.sco_archives_justificatifs import JustificatifArchiver
|
from app.scodoc.sco_archives_justificatifs import JustificatifArchiver
|
||||||
from app.scodoc.sco_exceptions import ScoValueError
|
from app.scodoc.sco_exceptions import ScoValueError
|
||||||
from app.scodoc.sco_permissions import Permission
|
from app.scodoc.sco_permissions import Permission
|
||||||
|
from app.scodoc import sco_utils as scu
|
||||||
from app.scodoc.sco_utils import (
|
from app.scodoc.sco_utils import (
|
||||||
EtatAssiduite,
|
EtatAssiduite,
|
||||||
EtatJustificatif,
|
EtatJustificatif,
|
||||||
|
@ -89,6 +89,8 @@ class Assiduite(ScoDocModel):
|
||||||
lazy="select",
|
lazy="select",
|
||||||
)
|
)
|
||||||
|
|
||||||
|
# Argument "restrict" obligatoire car on override la fonction "to_dict" de ScoDocModel
|
||||||
|
# pylint: disable-next=unused-argument
|
||||||
def to_dict(self, format_api=True, restrict: bool | None = None) -> dict:
|
def to_dict(self, format_api=True, restrict: bool | None = None) -> dict:
|
||||||
"""Retourne la représentation json de l'assiduité
|
"""Retourne la représentation json de l'assiduité
|
||||||
restrict n'est pas utilisé ici.
|
restrict n'est pas utilisé ici.
|
||||||
|
@ -112,9 +114,9 @@ class Assiduite(ScoDocModel):
|
||||||
"entry_date": self.entry_date,
|
"entry_date": self.entry_date,
|
||||||
"user_id": None if user is None else user.id, # l'uid
|
"user_id": None if user is None else user.id, # l'uid
|
||||||
"user_name": None if user is None else user.user_name, # le login
|
"user_name": None if user is None else user.user_name, # le login
|
||||||
"user_nom_complet": None
|
"user_nom_complet": (
|
||||||
if user is None
|
None if user is None else user.get_nomcomplet()
|
||||||
else user.get_nomcomplet(), # "Marie Dupont"
|
), # "Marie Dupont"
|
||||||
"est_just": self.est_just,
|
"est_just": self.est_just,
|
||||||
"external_data": self.external_data,
|
"external_data": self.external_data,
|
||||||
}
|
}
|
||||||
|
@ -307,6 +309,9 @@ class Assiduite(ScoDocModel):
|
||||||
|
|
||||||
def supprime(self):
|
def supprime(self):
|
||||||
"Supprime l'assiduité. Log et commit."
|
"Supprime l'assiduité. Log et commit."
|
||||||
|
|
||||||
|
# Obligatoire car import circulaire sinon
|
||||||
|
# pylint: disable-next=import-outside-toplevel
|
||||||
from app.scodoc import sco_assiduites as scass
|
from app.scodoc import sco_assiduites as scass
|
||||||
|
|
||||||
if g.scodoc_dept is None and self.etudiant.dept_id is not None:
|
if g.scodoc_dept is None and self.etudiant.dept_id is not None:
|
||||||
|
@ -332,31 +337,47 @@ class Assiduite(ScoDocModel):
|
||||||
"""
|
"""
|
||||||
return get_formsemestre_from_data(self.to_dict())
|
return get_formsemestre_from_data(self.to_dict())
|
||||||
|
|
||||||
def get_module(self, traduire: bool = False) -> int | str:
|
def get_module(self, traduire: bool = False) -> Module | str:
|
||||||
"TODO documenter"
|
"""
|
||||||
|
Retourne le module associé à l'assiduité
|
||||||
|
Si traduire est vrai, retourne le titre du module précédé du code
|
||||||
|
Sinon rentourne l'objet Module ou None
|
||||||
|
"""
|
||||||
|
|
||||||
if self.moduleimpl_id is not None:
|
if self.moduleimpl_id is not None:
|
||||||
|
modimpl: ModuleImpl = ModuleImpl.query.get(self.moduleimpl_id)
|
||||||
|
mod: Module = Module.query.get(modimpl.module_id)
|
||||||
if traduire:
|
if traduire:
|
||||||
modimpl: ModuleImpl = ModuleImpl.query.get(self.moduleimpl_id)
|
|
||||||
mod: Module = Module.query.get(modimpl.module_id)
|
|
||||||
return f"{mod.code} {mod.titre}"
|
return f"{mod.code} {mod.titre}"
|
||||||
|
return mod
|
||||||
|
|
||||||
elif self.external_data is not None and "module" in self.external_data:
|
elif self.external_data is not None and "module" in self.external_data:
|
||||||
return (
|
return (
|
||||||
"Tout module"
|
"Autre module (pas dans la liste)"
|
||||||
if self.external_data["module"] == "Autre"
|
if self.external_data["module"] == "Autre"
|
||||||
else self.external_data["module"]
|
else self.external_data["module"]
|
||||||
)
|
)
|
||||||
|
|
||||||
return "Non spécifié" if traduire else None
|
return "Module non spécifié" if traduire else None
|
||||||
|
|
||||||
|
def get_moduleimpl_id(self) -> int | str | None:
|
||||||
|
"""
|
||||||
|
Retourne le ModuleImpl associé à l'assiduité
|
||||||
|
"""
|
||||||
|
if self.moduleimpl_id is not None:
|
||||||
|
return self.moduleimpl_id
|
||||||
|
if self.external_data is not None and "module" in self.external_data:
|
||||||
|
return self.external_data["module"]
|
||||||
|
return None
|
||||||
|
|
||||||
def get_saisie(self) -> str:
|
def get_saisie(self) -> str:
|
||||||
"""
|
"""
|
||||||
retourne le texte "saisie le <date> par <User>"
|
retourne le texte "saisie le <date> par <User>"
|
||||||
"""
|
"""
|
||||||
|
|
||||||
date: str = self.entry_date.strftime("%d/%m/%Y à %H:%M")
|
date: str = self.entry_date.strftime(scu.DATEATIME_FMT)
|
||||||
utilisateur: str = ""
|
utilisateur: str = ""
|
||||||
if self.user != None:
|
if self.user is not None:
|
||||||
self.user: User
|
self.user: User
|
||||||
utilisateur = f"par {self.user.get_prenomnom()}"
|
utilisateur = f"par {self.user.get_prenomnom()}"
|
||||||
|
|
||||||
|
@ -384,6 +405,14 @@ class Assiduite(ScoDocModel):
|
||||||
if force:
|
if force:
|
||||||
raise ScoValueError("Module non renseigné")
|
raise ScoValueError("Module non renseigné")
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def get_assiduite(cls, assiduite_id: int) -> "Assiduite":
|
||||||
|
"""Assiduité ou 404, cherche uniquement dans le département courant"""
|
||||||
|
query = Assiduite.query.filter_by(id=assiduite_id)
|
||||||
|
if g.scodoc_dept:
|
||||||
|
query = query.join(Identite).filter_by(dept_id=g.scodoc_dept_id)
|
||||||
|
return query.first_or_404()
|
||||||
|
|
||||||
|
|
||||||
class Justificatif(ScoDocModel):
|
class Justificatif(ScoDocModel):
|
||||||
"""
|
"""
|
||||||
|
@ -515,6 +544,8 @@ class Justificatif(ScoDocModel):
|
||||||
def create_justificatif(
|
def create_justificatif(
|
||||||
cls,
|
cls,
|
||||||
etudiant: Identite,
|
etudiant: Identite,
|
||||||
|
# On a besoin des arguments mais on utilise "locals" pour les récupérer
|
||||||
|
# pylint: disable=unused-argument
|
||||||
date_debut: datetime,
|
date_debut: datetime,
|
||||||
date_fin: datetime,
|
date_fin: datetime,
|
||||||
etat: EtatJustificatif,
|
etat: EtatJustificatif,
|
||||||
|
@ -538,8 +569,10 @@ class Justificatif(ScoDocModel):
|
||||||
|
|
||||||
def supprime(self):
|
def supprime(self):
|
||||||
"Supprime le justificatif. Log et commit."
|
"Supprime le justificatif. Log et commit."
|
||||||
|
|
||||||
|
# Obligatoire car import circulaire sinon
|
||||||
|
# pylint: disable-next=import-outside-toplevel
|
||||||
from app.scodoc import sco_assiduites as scass
|
from app.scodoc import sco_assiduites as scass
|
||||||
from app.scodoc.sco_archives_justificatifs import JustificatifArchiver
|
|
||||||
|
|
||||||
# Récupération de l'archive du justificatif
|
# Récupération de l'archive du justificatif
|
||||||
archive_name: str = self.fichier
|
archive_name: str = self.fichier
|
||||||
|
@ -566,11 +599,7 @@ class Justificatif(ScoDocModel):
|
||||||
db.session.delete(self)
|
db.session.delete(self)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
# On actualise les assiduités justifiées de l'étudiant concerné
|
# On actualise les assiduités justifiées de l'étudiant concerné
|
||||||
compute_assiduites_justified(
|
self.dejustifier_assiduites()
|
||||||
self.etudid,
|
|
||||||
Justificatif.query.filter_by(etudid=self.etudid).all(),
|
|
||||||
True,
|
|
||||||
)
|
|
||||||
|
|
||||||
def get_fichiers(self) -> tuple[list[str], int]:
|
def get_fichiers(self) -> tuple[list[str], int]:
|
||||||
"""Renvoie la liste des noms de fichiers justicatifs
|
"""Renvoie la liste des noms de fichiers justicatifs
|
||||||
|
@ -592,16 +621,96 @@ class Justificatif(ScoDocModel):
|
||||||
accessible_filenames.append(filename[0])
|
accessible_filenames.append(filename[0])
|
||||||
return accessible_filenames, len(filenames)
|
return accessible_filenames, len(filenames)
|
||||||
|
|
||||||
|
def justifier_assiduites(
|
||||||
|
self,
|
||||||
|
) -> list[int]:
|
||||||
|
"""Justifie les assiduités sur la période de validité du justificatif"""
|
||||||
|
log(f"justifier_assiduites: {self}")
|
||||||
|
assiduites_justifiees: list[int] = []
|
||||||
|
if self.etat != EtatJustificatif.VALIDE:
|
||||||
|
return []
|
||||||
|
# On récupère les assiduités de l'étudiant sur la période donnée
|
||||||
|
assiduites: Query = self.etudiant.assiduites.filter(
|
||||||
|
Assiduite.date_debut >= self.date_debut,
|
||||||
|
Assiduite.date_fin <= self.date_fin,
|
||||||
|
Assiduite.etat != EtatAssiduite.PRESENT,
|
||||||
|
)
|
||||||
|
# Pour chaque assiduité, on la justifie
|
||||||
|
for assi in assiduites:
|
||||||
|
assi.est_just = True
|
||||||
|
assiduites_justifiees.append(assi.assiduite_id)
|
||||||
|
db.session.add(assi)
|
||||||
|
|
||||||
|
db.session.commit()
|
||||||
|
|
||||||
|
return assiduites_justifiees
|
||||||
|
|
||||||
|
def dejustifier_assiduites(self) -> list[int]:
|
||||||
|
"""
|
||||||
|
Déjustifie les assiduités sur la période du justificatif
|
||||||
|
"""
|
||||||
|
assiduites_dejustifiees: list[int] = []
|
||||||
|
|
||||||
|
# On récupère les assiduités de l'étudiant sur la période donnée
|
||||||
|
assiduites: Query = self.etudiant.assiduites.filter(
|
||||||
|
Assiduite.date_debut >= self.date_debut,
|
||||||
|
Assiduite.date_fin <= self.date_fin,
|
||||||
|
Assiduite.etat != EtatAssiduite.PRESENT,
|
||||||
|
)
|
||||||
|
assi: Assiduite
|
||||||
|
for assi in assiduites:
|
||||||
|
# On récupère les justificatifs qui justifient l'assiduité `assi`
|
||||||
|
assi_justifs: list[int] = get_justifs_from_date(
|
||||||
|
self.etudiant.etudid,
|
||||||
|
assi.date_debut,
|
||||||
|
assi.date_fin,
|
||||||
|
long=False,
|
||||||
|
valid=True,
|
||||||
|
)
|
||||||
|
# Si il n'y a pas d'autre justificatif valide, on déjustifie l'assiduité
|
||||||
|
if len(assi_justifs) == 0 or (
|
||||||
|
len(assi_justifs) == 1 and assi_justifs[0] == self.justif_id
|
||||||
|
):
|
||||||
|
assi.est_just = False
|
||||||
|
assiduites_dejustifiees.append(assi.assiduite_id)
|
||||||
|
db.session.add(assi)
|
||||||
|
|
||||||
|
db.session.commit()
|
||||||
|
|
||||||
|
return assiduites_dejustifiees
|
||||||
|
|
||||||
|
def get_assiduites(self) -> Query:
|
||||||
|
"""
|
||||||
|
get_assiduites Récupère les assiduités qui sont concernées par le justificatif
|
||||||
|
(Concernée ≠ Justifiée, mais qui sont sur la même période)
|
||||||
|
Ne prends pas en compte les Présences
|
||||||
|
Returns:
|
||||||
|
Query: Les assiduités concernées
|
||||||
|
"""
|
||||||
|
|
||||||
|
assiduites_query = Assiduite.query.filter(
|
||||||
|
Assiduite.etudid == self.etudid,
|
||||||
|
Assiduite.date_debut >= self.date_debut,
|
||||||
|
Assiduite.date_fin <= self.date_fin,
|
||||||
|
Assiduite.etat != EtatAssiduite.PRESENT,
|
||||||
|
)
|
||||||
|
|
||||||
|
return assiduites_query
|
||||||
|
|
||||||
|
|
||||||
def is_period_conflicting(
|
def is_period_conflicting(
|
||||||
date_debut: datetime,
|
date_debut: datetime,
|
||||||
date_fin: datetime,
|
date_fin: datetime,
|
||||||
collection: Query,
|
collection: Query,
|
||||||
collection_cls: Assiduite | Justificatif,
|
collection_cls: Assiduite | Justificatif,
|
||||||
|
obj_id: int = -1,
|
||||||
) -> bool:
|
) -> bool:
|
||||||
"""
|
"""
|
||||||
Vérifie si une date n'entre pas en collision
|
Vérifie si une date n'entre pas en collision
|
||||||
avec les justificatifs ou assiduites déjà présentes
|
avec les justificatifs ou assiduites déjà présentes
|
||||||
|
|
||||||
|
On peut donner un objet_id pour exclure un objet de la vérification
|
||||||
|
(utile pour les modifications)
|
||||||
"""
|
"""
|
||||||
|
|
||||||
# On s'assure que les dates soient avec TimeZone
|
# On s'assure que les dates soient avec TimeZone
|
||||||
|
@ -609,78 +718,14 @@ def is_period_conflicting(
|
||||||
date_fin = localize_datetime(date_fin)
|
date_fin = localize_datetime(date_fin)
|
||||||
|
|
||||||
count: int = collection.filter(
|
count: int = collection.filter(
|
||||||
collection_cls.date_debut < date_fin, collection_cls.date_fin > date_debut
|
collection_cls.date_debut < date_fin,
|
||||||
|
collection_cls.date_fin > date_debut,
|
||||||
|
collection_cls.id != obj_id,
|
||||||
).count()
|
).count()
|
||||||
|
|
||||||
return count > 0
|
return count > 0
|
||||||
|
|
||||||
|
|
||||||
def compute_assiduites_justified(
|
|
||||||
etudid: int, justificatifs: list[Justificatif] = None, reset: bool = False
|
|
||||||
) -> list[int]:
|
|
||||||
"""
|
|
||||||
Args:
|
|
||||||
etudid (int): l'identifiant de l'étudiant
|
|
||||||
justificatifs (list[Justificatif]): La liste des justificatifs qui seront utilisés
|
|
||||||
reset (bool, optional): remet à false les assiduites non justifiés. Defaults to False.
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
list[int]: la liste des assiduités qui ont été justifiées.
|
|
||||||
"""
|
|
||||||
# TODO à optimiser (car très long avec 40000 assiduités)
|
|
||||||
# On devrait :
|
|
||||||
# - récupérer uniquement les assiduités qui sont sur la période des justificatifs donnés
|
|
||||||
# - Pour chaque assiduité trouvée, il faut récupérer les justificatifs qui la justifie
|
|
||||||
# - Si au moins un justificatif valide couvre la période de l'assiduité alors on la justifie
|
|
||||||
|
|
||||||
# Si on ne donne pas de justificatifs on prendra par défaut tous les justificatifs de l'étudiant
|
|
||||||
if justificatifs is None:
|
|
||||||
justificatifs: list[Justificatif] = Justificatif.query.filter_by(
|
|
||||||
etudid=etudid
|
|
||||||
).all()
|
|
||||||
|
|
||||||
# On ne prend que les justificatifs valides
|
|
||||||
justificatifs = [j for j in justificatifs if j.etat == EtatJustificatif.VALIDE]
|
|
||||||
|
|
||||||
# On récupère les assiduités de l'étudiant
|
|
||||||
assiduites: Assiduite = Assiduite.query.filter_by(etudid=etudid)
|
|
||||||
|
|
||||||
assiduites_justifiees: list[int] = []
|
|
||||||
|
|
||||||
for assi in assiduites:
|
|
||||||
# On ne justifie pas les Présences
|
|
||||||
if assi.etat == EtatAssiduite.PRESENT:
|
|
||||||
continue
|
|
||||||
|
|
||||||
# On récupère les justificatifs qui justifient l'assiduité `assi`
|
|
||||||
assi_justificatifs = Justificatif.query.filter(
|
|
||||||
Justificatif.etudid == assi.etudid,
|
|
||||||
Justificatif.date_debut <= assi.date_debut,
|
|
||||||
Justificatif.date_fin >= assi.date_fin,
|
|
||||||
Justificatif.etat == EtatJustificatif.VALIDE,
|
|
||||||
).all()
|
|
||||||
|
|
||||||
# Si au moins un justificatif possède une période qui couvre l'assiduité
|
|
||||||
if any(
|
|
||||||
assi.date_debut >= j.date_debut and assi.date_fin <= j.date_fin
|
|
||||||
for j in justificatifs + assi_justificatifs
|
|
||||||
):
|
|
||||||
# On justifie l'assiduité
|
|
||||||
# On ajoute l'id de l'assiduité à la liste des assiduités justifiées
|
|
||||||
assi.est_just = True
|
|
||||||
assiduites_justifiees.append(assi.assiduite_id)
|
|
||||||
db.session.add(assi)
|
|
||||||
elif reset:
|
|
||||||
# Si le paramètre reset est Vrai alors les assiduités non justifiées
|
|
||||||
# sont remise en "non justifiée"
|
|
||||||
assi.est_just = False
|
|
||||||
db.session.add(assi)
|
|
||||||
# On valide la session
|
|
||||||
db.session.commit()
|
|
||||||
# On renvoie la liste des assiduite_id des assiduités justifiées
|
|
||||||
return assiduites_justifiees
|
|
||||||
|
|
||||||
|
|
||||||
def get_assiduites_justif(assiduite_id: int, long: bool) -> list[int | dict]:
|
def get_assiduites_justif(assiduite_id: int, long: bool) -> list[int | dict]:
|
||||||
"""
|
"""
|
||||||
get_assiduites_justif Récupération des justificatifs d'une assiduité
|
get_assiduites_justif Récupération des justificatifs d'une assiduité
|
||||||
|
|
|
@ -8,16 +8,19 @@
|
||||||
from datetime import datetime
|
from datetime import datetime
|
||||||
import functools
|
import functools
|
||||||
from operator import attrgetter
|
from operator import attrgetter
|
||||||
|
import yaml
|
||||||
|
|
||||||
from flask import g
|
from flask import g
|
||||||
from flask_sqlalchemy.query import Query
|
from flask_sqlalchemy.query import Query
|
||||||
from sqlalchemy.orm import class_mapper
|
from sqlalchemy.orm import class_mapper
|
||||||
import sqlalchemy
|
import sqlalchemy
|
||||||
|
|
||||||
from app import db
|
from app import db, log
|
||||||
|
|
||||||
from app.scodoc.sco_utils import ModuleType
|
from app.scodoc.sco_utils import ModuleType
|
||||||
from app.scodoc.sco_exceptions import ScoNoReferentielCompetences
|
from app.scodoc.sco_exceptions import ScoNoReferentielCompetences, ScoValueError
|
||||||
|
|
||||||
|
REFCOMP_EQUIVALENCE_FILENAME = "ressources/referentiels/equivalences.yaml"
|
||||||
|
|
||||||
|
|
||||||
# from https://stackoverflow.com/questions/2537471/method-of-iterating-over-sqlalchemy-models-defined-columns
|
# from https://stackoverflow.com/questions/2537471/method-of-iterating-over-sqlalchemy-models-defined-columns
|
||||||
|
@ -104,6 +107,11 @@ class ApcReferentielCompetences(db.Model, XMLModel):
|
||||||
def __repr__(self):
|
def __repr__(self):
|
||||||
return f"<ApcReferentielCompetences {self.id} {self.specialite!r} {self.departement!r}>"
|
return f"<ApcReferentielCompetences {self.id} {self.specialite!r} {self.departement!r}>"
|
||||||
|
|
||||||
|
def get_title(self) -> str:
|
||||||
|
"Titre affichable"
|
||||||
|
# utilise type_titre (B.U.T.), spécialité, version
|
||||||
|
return f"{self.type_titre} {self.specialite} {self.get_version()}"
|
||||||
|
|
||||||
def get_version(self) -> str:
|
def get_version(self) -> str:
|
||||||
"La version, normalement sous forme de date iso yyy-mm-dd"
|
"La version, normalement sous forme de date iso yyy-mm-dd"
|
||||||
if not self.version_orebut:
|
if not self.version_orebut:
|
||||||
|
@ -124,9 +132,11 @@ class ApcReferentielCompetences(db.Model, XMLModel):
|
||||||
"type_departement": self.type_departement,
|
"type_departement": self.type_departement,
|
||||||
"type_titre": self.type_titre,
|
"type_titre": self.type_titre,
|
||||||
"version_orebut": self.version_orebut,
|
"version_orebut": self.version_orebut,
|
||||||
"scodoc_date_loaded": self.scodoc_date_loaded.isoformat() + "Z"
|
"scodoc_date_loaded": (
|
||||||
if self.scodoc_date_loaded
|
self.scodoc_date_loaded.isoformat() + "Z"
|
||||||
else "",
|
if self.scodoc_date_loaded
|
||||||
|
else ""
|
||||||
|
),
|
||||||
"scodoc_orig_filename": self.scodoc_orig_filename,
|
"scodoc_orig_filename": self.scodoc_orig_filename,
|
||||||
"competences": {
|
"competences": {
|
||||||
x.titre: x.to_dict(with_app_critiques=with_app_critiques)
|
x.titre: x.to_dict(with_app_critiques=with_app_critiques)
|
||||||
|
@ -234,6 +244,100 @@ class ApcReferentielCompetences(db.Model, XMLModel):
|
||||||
|
|
||||||
return parcours_info
|
return parcours_info
|
||||||
|
|
||||||
|
def equivalents(self) -> set["ApcReferentielCompetences"]:
|
||||||
|
"""Ensemble des référentiels du même département
|
||||||
|
qui peuvent être considérés comme "équivalents", au sens
|
||||||
|
une formation de ce référentiel pourrait changer vers un équivalent,
|
||||||
|
en ignorant les apprentissages critiques.
|
||||||
|
Pour cela, il faut avoir le même type, etc et les mêmes compétences,
|
||||||
|
niveaux et parcours (voir map_to_other_referentiel).
|
||||||
|
"""
|
||||||
|
candidats = ApcReferentielCompetences.query.filter_by(
|
||||||
|
dept_id=self.dept_id
|
||||||
|
).filter(ApcReferentielCompetences.id != self.id)
|
||||||
|
return {
|
||||||
|
referentiel
|
||||||
|
for referentiel in candidats
|
||||||
|
if not isinstance(self.map_to_other_referentiel(referentiel), str)
|
||||||
|
}
|
||||||
|
|
||||||
|
def map_to_other_referentiel(
|
||||||
|
self, other: "ApcReferentielCompetences"
|
||||||
|
) -> str | tuple[dict[int, int], dict[int, int], dict[int, int]]:
|
||||||
|
"""Build mapping between this referentiel and ref2.
|
||||||
|
If successful, returns 3 dicts mapping self ids to other ids.
|
||||||
|
Else return a string, error message.
|
||||||
|
"""
|
||||||
|
if self.type_structure != other.type_structure:
|
||||||
|
return "type_structure mismatch"
|
||||||
|
if self.type_departement != other.type_departement:
|
||||||
|
return "type_departement mismatch"
|
||||||
|
# Table d'équivalences entre refs:
|
||||||
|
equiv = self._load_config_equivalences()
|
||||||
|
# Même specialité (ou alias) ?
|
||||||
|
if self.specialite != other.specialite and other.specialite not in equiv.get(
|
||||||
|
"alias", []
|
||||||
|
):
|
||||||
|
return "specialite mismatch"
|
||||||
|
# mêmes parcours ?
|
||||||
|
eq_parcours = equiv.get("parcours", {})
|
||||||
|
parcours_by_code_1 = {eq_parcours.get(p.code, p.code): p for p in self.parcours}
|
||||||
|
parcours_by_code_2 = {
|
||||||
|
eq_parcours.get(p.code, p.code): p for p in other.parcours
|
||||||
|
}
|
||||||
|
if parcours_by_code_1.keys() != parcours_by_code_2.keys():
|
||||||
|
return "parcours mismatch"
|
||||||
|
parcours_map = {
|
||||||
|
parcours_by_code_1[eq_parcours.get(code, code)]
|
||||||
|
.id: parcours_by_code_2[eq_parcours.get(code, code)]
|
||||||
|
.id
|
||||||
|
for code in parcours_by_code_1
|
||||||
|
}
|
||||||
|
# mêmes compétences ?
|
||||||
|
competence_by_code_1 = {c.titre: c for c in self.competences}
|
||||||
|
competence_by_code_2 = {c.titre: c for c in other.competences}
|
||||||
|
if competence_by_code_1.keys() != competence_by_code_2.keys():
|
||||||
|
return "competences mismatch"
|
||||||
|
competences_map = {
|
||||||
|
competence_by_code_1[titre].id: competence_by_code_2[titre].id
|
||||||
|
for titre in competence_by_code_1
|
||||||
|
}
|
||||||
|
# mêmes niveaux (dans chaque compétence) ?
|
||||||
|
niveaux_map = {}
|
||||||
|
for titre in competence_by_code_1:
|
||||||
|
c1 = competence_by_code_1[titre]
|
||||||
|
c2 = competence_by_code_2[titre]
|
||||||
|
niveau_by_attr_1 = {(n.annee, n.ordre, n.libelle): n for n in c1.niveaux}
|
||||||
|
niveau_by_attr_2 = {(n.annee, n.ordre, n.libelle): n for n in c2.niveaux}
|
||||||
|
if niveau_by_attr_1.keys() != niveau_by_attr_2.keys():
|
||||||
|
return f"niveaux mismatch in comp. '{titre}'"
|
||||||
|
niveaux_map.update(
|
||||||
|
{
|
||||||
|
niveau_by_attr_1[a].id: niveau_by_attr_2[a].id
|
||||||
|
for a in niveau_by_attr_1
|
||||||
|
}
|
||||||
|
)
|
||||||
|
return parcours_map, competences_map, niveaux_map
|
||||||
|
|
||||||
|
def _load_config_equivalences(self) -> dict:
|
||||||
|
"""Load config file ressources/referentiels/equivalences.yaml
|
||||||
|
used to define equivalences between distinct referentiels
|
||||||
|
return a dict, with optional keys:
|
||||||
|
alias: list of equivalent names for speciality (eg SD == STID)
|
||||||
|
parcours: dict with equivalent parcours acronyms
|
||||||
|
"""
|
||||||
|
try:
|
||||||
|
with open(REFCOMP_EQUIVALENCE_FILENAME, encoding="utf-8") as f:
|
||||||
|
doc = yaml.safe_load(f.read())
|
||||||
|
except FileNotFoundError:
|
||||||
|
log(f"_load_config_equivalences: {REFCOMP_EQUIVALENCE_FILENAME} not found")
|
||||||
|
return {}
|
||||||
|
except yaml.parser.ParserError as exc:
|
||||||
|
raise ScoValueError(
|
||||||
|
f"erreur dans le fichier {REFCOMP_EQUIVALENCE_FILENAME}"
|
||||||
|
) from exc
|
||||||
|
return doc.get(self.specialite, {})
|
||||||
|
|
||||||
|
|
||||||
class ApcCompetence(db.Model, XMLModel):
|
class ApcCompetence(db.Model, XMLModel):
|
||||||
"Compétence"
|
"Compétence"
|
||||||
|
@ -374,9 +478,11 @@ class ApcNiveau(db.Model, XMLModel):
|
||||||
"libelle": self.libelle,
|
"libelle": self.libelle,
|
||||||
"annee": self.annee,
|
"annee": self.annee,
|
||||||
"ordre": self.ordre,
|
"ordre": self.ordre,
|
||||||
"app_critiques": {x.code: x.to_dict() for x in self.app_critiques}
|
"app_critiques": (
|
||||||
if with_app_critiques
|
{x.code: x.to_dict() for x in self.app_critiques}
|
||||||
else {},
|
if with_app_critiques
|
||||||
|
else {}
|
||||||
|
),
|
||||||
}
|
}
|
||||||
|
|
||||||
def to_dict_bul(self):
|
def to_dict_bul(self):
|
||||||
|
@ -464,9 +570,9 @@ class ApcNiveau(db.Model, XMLModel):
|
||||||
return []
|
return []
|
||||||
|
|
||||||
if competence is None:
|
if competence is None:
|
||||||
parcour_niveaux: list[
|
parcour_niveaux: list[ApcParcoursNiveauCompetence] = (
|
||||||
ApcParcoursNiveauCompetence
|
annee_parcour.niveaux_competences
|
||||||
] = annee_parcour.niveaux_competences
|
)
|
||||||
niveaux: list[ApcNiveau] = [
|
niveaux: list[ApcNiveau] = [
|
||||||
pn.competence.niveaux.filter_by(ordre=pn.niveau).first()
|
pn.competence.niveaux.filter_by(ordre=pn.niveau).first()
|
||||||
for pn in parcour_niveaux
|
for pn in parcour_niveaux
|
||||||
|
|
|
@ -10,6 +10,7 @@ from app.models.etudiants import Identite
|
||||||
from app.models.formsemestre import FormSemestre
|
from app.models.formsemestre import FormSemestre
|
||||||
from app.models.ues import UniteEns
|
from app.models.ues import UniteEns
|
||||||
from app.scodoc import sco_preferences
|
from app.scodoc import sco_preferences
|
||||||
|
from app.scodoc import sco_utils as scu
|
||||||
|
|
||||||
|
|
||||||
class ApcValidationRCUE(db.Model):
|
class ApcValidationRCUE(db.Model):
|
||||||
|
@ -63,14 +64,13 @@ class ApcValidationRCUE(db.Model):
|
||||||
|
|
||||||
def __str__(self):
|
def __str__(self):
|
||||||
return f"""Décision sur RCUE {self.ue1.acronyme}/{self.ue2.acronyme}: {
|
return f"""Décision sur RCUE {self.ue1.acronyme}/{self.ue2.acronyme}: {
|
||||||
self.code} enregistrée le {self.date.strftime("%d/%m/%Y")}"""
|
self.code} enregistrée le {self.date.strftime(scu.DATE_FMT)}"""
|
||||||
|
|
||||||
def html(self) -> str:
|
def html(self) -> str:
|
||||||
"description en HTML"
|
"description en HTML"
|
||||||
return f"""Décision sur RCUE {self.ue1.acronyme}/{self.ue2.acronyme}:
|
return f"""Décision sur RCUE {self.ue1.acronyme}/{self.ue2.acronyme}:
|
||||||
<b>{self.code}</b>
|
<b>{self.code}</b>
|
||||||
<em>enregistrée le {self.date.strftime("%d/%m/%Y")}
|
<em>enregistrée le {self.date.strftime(scu.DATEATIME_FMT)}</em>"""
|
||||||
à {self.date.strftime("%Hh%M")}</em>"""
|
|
||||||
|
|
||||||
def annee(self) -> str:
|
def annee(self) -> str:
|
||||||
"""l'année BUT concernée: "BUT1", "BUT2" ou "BUT3" """
|
"""l'année BUT concernée: "BUT1", "BUT2" ou "BUT3" """
|
||||||
|
@ -164,7 +164,7 @@ class ApcValidationAnnee(db.Model):
|
||||||
def html(self) -> str:
|
def html(self) -> str:
|
||||||
"Affichage html"
|
"Affichage html"
|
||||||
date_str = (
|
date_str = (
|
||||||
f"""le {self.date.strftime("%d/%m/%Y")} à {self.date.strftime("%Hh%M")}"""
|
f"""le {self.date.strftime(scu.DATEATIME_FMT)}"""
|
||||||
if self.date
|
if self.date
|
||||||
else "(sans date)"
|
else "(sans date)"
|
||||||
)
|
)
|
||||||
|
|
|
@ -92,6 +92,7 @@ class ScoDocSiteConfig(db.Model):
|
||||||
"INSTITUTION_CITY": str,
|
"INSTITUTION_CITY": str,
|
||||||
"DEFAULT_PDF_FOOTER_TEMPLATE": str,
|
"DEFAULT_PDF_FOOTER_TEMPLATE": str,
|
||||||
"enable_entreprises": bool,
|
"enable_entreprises": bool,
|
||||||
|
"disable_passerelle": bool, # remplace pref. bul_display_publication
|
||||||
"month_debut_annee_scolaire": int,
|
"month_debut_annee_scolaire": int,
|
||||||
"month_debut_periode2": int,
|
"month_debut_periode2": int,
|
||||||
"disable_bul_pdf": bool,
|
"disable_bul_pdf": bool,
|
||||||
|
@ -244,6 +245,12 @@ class ScoDocSiteConfig(db.Model):
|
||||||
cfg = ScoDocSiteConfig.query.filter_by(name="enable_entreprises").first()
|
cfg = ScoDocSiteConfig.query.filter_by(name="enable_entreprises").first()
|
||||||
return cfg is not None and cfg.value
|
return cfg is not None and cfg.value
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def is_passerelle_disabled(cls):
|
||||||
|
"""True si on doit cacher les fonctions passerelle ("oeil")."""
|
||||||
|
cfg = ScoDocSiteConfig.query.filter_by(name="disable_passerelle").first()
|
||||||
|
return cfg is not None and cfg.value
|
||||||
|
|
||||||
@classmethod
|
@classmethod
|
||||||
def is_user_require_email_institutionnel_enabled(cls) -> bool:
|
def is_user_require_email_institutionnel_enabled(cls) -> bool:
|
||||||
"""True si impose saisie email_institutionnel"""
|
"""True si impose saisie email_institutionnel"""
|
||||||
|
@ -263,6 +270,11 @@ class ScoDocSiteConfig(db.Model):
|
||||||
"""Active (ou déactive) le module entreprises. True si changement."""
|
"""Active (ou déactive) le module entreprises. True si changement."""
|
||||||
return cls.set("enable_entreprises", "on" if enabled else "")
|
return cls.set("enable_entreprises", "on" if enabled else "")
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def disable_passerelle(cls, disabled: bool = True) -> bool:
|
||||||
|
"""Désactive (ou active) les fonctions liées à la présence d'une passerelle. True si changement."""
|
||||||
|
return cls.set("disable_passerelle", "on" if disabled else "")
|
||||||
|
|
||||||
@classmethod
|
@classmethod
|
||||||
def disable_bul_pdf(cls, enabled=True) -> bool:
|
def disable_bul_pdf(cls, enabled=True) -> bool:
|
||||||
"""Interdit (ou autorise) les exports PDF. True si changement."""
|
"""Interdit (ou autorise) les exports PDF. True si changement."""
|
||||||
|
|
|
@ -199,6 +199,11 @@ class Identite(models.ScoDocModel):
|
||||||
@classmethod
|
@classmethod
|
||||||
def get_etud(cls, etudid: int) -> "Identite":
|
def get_etud(cls, etudid: int) -> "Identite":
|
||||||
"""Etudiant ou 404, cherche uniquement dans le département courant"""
|
"""Etudiant ou 404, cherche uniquement dans le département courant"""
|
||||||
|
if not isinstance(etudid, int):
|
||||||
|
try:
|
||||||
|
etudid = int(etudid)
|
||||||
|
except (TypeError, ValueError):
|
||||||
|
abort(404, "etudid invalide")
|
||||||
if g.scodoc_dept:
|
if g.scodoc_dept:
|
||||||
return cls.query.filter_by(
|
return cls.query.filter_by(
|
||||||
id=etudid, dept_id=g.scodoc_dept_id
|
id=etudid, dept_id=g.scodoc_dept_id
|
||||||
|
@ -297,11 +302,12 @@ class Identite(models.ScoDocModel):
|
||||||
else:
|
else:
|
||||||
return self.nom
|
return self.nom
|
||||||
|
|
||||||
@cached_property
|
@property
|
||||||
def nomprenom(self, reverse=False) -> str:
|
def nomprenom(self, reverse=False) -> str:
|
||||||
"""Civilité/nom/prenom pour affichages: "M. Pierre Dupont"
|
"""DEPRECATED
|
||||||
|
Civilité/prénom/nom pour affichages: "M. Pierre Dupont"
|
||||||
Si reverse, "Dupont Pierre", sans civilité.
|
Si reverse, "Dupont Pierre", sans civilité.
|
||||||
Prend l'identité courant et non celle de l'état civile si elles diffèrent.
|
Prend l'identité courante et non celle de l'état civil si elles diffèrent.
|
||||||
"""
|
"""
|
||||||
nom = self.nom_usuel or self.nom
|
nom = self.nom_usuel or self.nom
|
||||||
prenom = self.prenom_str
|
prenom = self.prenom_str
|
||||||
|
@ -309,6 +315,12 @@ class Identite(models.ScoDocModel):
|
||||||
return f"{nom} {prenom}".strip()
|
return f"{nom} {prenom}".strip()
|
||||||
return f"{self.civilite_str} {prenom} {nom}".strip()
|
return f"{self.civilite_str} {prenom} {nom}".strip()
|
||||||
|
|
||||||
|
def nom_prenom(self) -> str:
|
||||||
|
"""Civilite NOM Prénom
|
||||||
|
Prend l'identité courante et non celle de l'état civil si elles diffèrent.
|
||||||
|
"""
|
||||||
|
return f"{self.civilite_str} {(self.nom_usuel or self.nom).upper()} {self.prenom_str}"
|
||||||
|
|
||||||
@property
|
@property
|
||||||
def prenom_str(self):
|
def prenom_str(self):
|
||||||
"""Prénom à afficher. Par exemple: "Jean-Christophe" """
|
"""Prénom à afficher. Par exemple: "Jean-Christophe" """
|
||||||
|
@ -334,16 +346,14 @@ class Identite(models.ScoDocModel):
|
||||||
return f"{(self.nom_usuel or self.nom or '?').upper()} {(self.prenom or '')[:2].capitalize()}."
|
return f"{(self.nom_usuel or self.nom or '?').upper()} {(self.prenom or '')[:2].capitalize()}."
|
||||||
|
|
||||||
@cached_property
|
@cached_property
|
||||||
def sort_key(self) -> tuple:
|
def sort_key(self) -> str:
|
||||||
"clé pour tris par ordre alphabétique"
|
"clé pour tris par ordre alphabétique"
|
||||||
# Note: scodoc7 utilisait sco_etud.etud_sort_key, à mettre à jour
|
# Note: scodoc7 utilisait sco_etud.etud_sort_key, à mettre à jour
|
||||||
# si on modifie cette méthode.
|
# si on modifie cette méthode.
|
||||||
return (
|
return scu.sanitize_string(
|
||||||
scu.sanitize_string(
|
(self.nom_usuel or self.nom or "") + ";" + (self.prenom or ""),
|
||||||
self.nom_usuel or self.nom or "", remove_spaces=False
|
remove_spaces=False,
|
||||||
).lower(),
|
).lower()
|
||||||
scu.sanitize_string(self.prenom or "", remove_spaces=False).lower(),
|
|
||||||
)
|
|
||||||
|
|
||||||
def get_first_email(self, field="email") -> str:
|
def get_first_email(self, field="email") -> str:
|
||||||
"Le mail associé à la première adresse de l'étudiant, ou None"
|
"Le mail associé à la première adresse de l'étudiant, ou None"
|
||||||
|
@ -483,7 +493,9 @@ class Identite(models.ScoDocModel):
|
||||||
"code_ine": self.code_ine or "",
|
"code_ine": self.code_ine or "",
|
||||||
"code_nip": self.code_nip or "",
|
"code_nip": self.code_nip or "",
|
||||||
"date_naissance": (
|
"date_naissance": (
|
||||||
self.date_naissance.strftime("%d/%m/%Y") if self.date_naissance else ""
|
self.date_naissance.strftime(scu.DATE_FMT)
|
||||||
|
if self.date_naissance
|
||||||
|
else ""
|
||||||
),
|
),
|
||||||
"dept_acronym": self.departement.acronym,
|
"dept_acronym": self.departement.acronym,
|
||||||
"dept_id": self.dept_id,
|
"dept_id": self.dept_id,
|
||||||
|
@ -542,8 +554,6 @@ class Identite(models.ScoDocModel):
|
||||||
|
|
||||||
def inscriptions(self) -> list["FormSemestreInscription"]:
|
def inscriptions(self) -> list["FormSemestreInscription"]:
|
||||||
"Liste des inscriptions à des formsemestres, triée, la plus récente en tête"
|
"Liste des inscriptions à des formsemestres, triée, la plus récente en tête"
|
||||||
from app.models.formsemestre import FormSemestre, FormSemestreInscription
|
|
||||||
|
|
||||||
return (
|
return (
|
||||||
FormSemestreInscription.query.join(FormSemestreInscription.formsemestre)
|
FormSemestreInscription.query.join(FormSemestreInscription.formsemestre)
|
||||||
.filter(
|
.filter(
|
||||||
|
@ -553,7 +563,7 @@ class Identite(models.ScoDocModel):
|
||||||
.all()
|
.all()
|
||||||
)
|
)
|
||||||
|
|
||||||
def inscription_courante(self):
|
def inscription_courante(self) -> "FormSemestreInscription | None":
|
||||||
"""La première inscription à un formsemestre _actuellement_ en cours.
|
"""La première inscription à un formsemestre _actuellement_ en cours.
|
||||||
None s'il n'y en a pas (ou plus, ou pas encore).
|
None s'il n'y en a pas (ou plus, ou pas encore).
|
||||||
"""
|
"""
|
||||||
|
@ -569,8 +579,6 @@ class Identite(models.ScoDocModel):
|
||||||
(il est rare qu'il y en ai plus d'une, mais c'est possible).
|
(il est rare qu'il y en ai plus d'une, mais c'est possible).
|
||||||
Triées par date de début de semestre décroissante (le plus récent en premier).
|
Triées par date de début de semestre décroissante (le plus récent en premier).
|
||||||
"""
|
"""
|
||||||
from app.models.formsemestre import FormSemestre, FormSemestreInscription
|
|
||||||
|
|
||||||
return (
|
return (
|
||||||
FormSemestreInscription.query.join(FormSemestreInscription.formsemestre)
|
FormSemestreInscription.query.join(FormSemestreInscription.formsemestre)
|
||||||
.filter(
|
.filter(
|
||||||
|
@ -739,7 +747,7 @@ class Identite(models.ScoDocModel):
|
||||||
"""
|
"""
|
||||||
if with_paragraph:
|
if with_paragraph:
|
||||||
return f"""{self.etat_civil}{line_sep}n°{self.code_nip or ""}{line_sep}né{self.e} le {
|
return f"""{self.etat_civil}{line_sep}n°{self.code_nip or ""}{line_sep}né{self.e} le {
|
||||||
self.date_naissance.strftime("%d/%m/%Y") if self.date_naissance else ""}{
|
self.date_naissance.strftime(scu.DATE_FMT) if self.date_naissance else ""}{
|
||||||
line_sep}à {self.lieu_naissance or ""}"""
|
line_sep}à {self.lieu_naissance or ""}"""
|
||||||
return self.etat_civil
|
return self.etat_civil
|
||||||
|
|
||||||
|
@ -1099,6 +1107,5 @@ class EtudAnnotation(db.Model):
|
||||||
return e
|
return e
|
||||||
|
|
||||||
|
|
||||||
from app.models.formsemestre import FormSemestre
|
from app.models.formsemestre import FormSemestre, FormSemestreInscription
|
||||||
from app.models.modules import Module
|
|
||||||
from app.models.moduleimpls import ModuleImpl, ModuleImplInscription
|
from app.models.moduleimpls import ModuleImpl, ModuleImplInscription
|
||||||
|
|
|
@ -71,6 +71,15 @@ class Evaluation(models.ScoDocModel):
|
||||||
EVALUATION_BONUS,
|
EVALUATION_BONUS,
|
||||||
}
|
}
|
||||||
|
|
||||||
|
def type_abbrev(self) -> str:
|
||||||
|
"Le nom abrégé du type de cette éval."
|
||||||
|
return {
|
||||||
|
self.EVALUATION_NORMALE: "std",
|
||||||
|
self.EVALUATION_RATTRAPAGE: "rattrapage",
|
||||||
|
self.EVALUATION_SESSION2: "session 2",
|
||||||
|
self.EVALUATION_BONUS: "bonus",
|
||||||
|
}.get(self.evaluation_type, "?")
|
||||||
|
|
||||||
def __repr__(self):
|
def __repr__(self):
|
||||||
return f"""<Evaluation {self.id} {
|
return f"""<Evaluation {self.id} {
|
||||||
self.date_debut.isoformat() if self.date_debut else ''} "{
|
self.date_debut.isoformat() if self.date_debut else ''} "{
|
||||||
|
@ -91,7 +100,7 @@ class Evaluation(models.ScoDocModel):
|
||||||
evaluation_type=None,
|
evaluation_type=None,
|
||||||
numero=None,
|
numero=None,
|
||||||
**kw, # ceci pour absorber les éventuel arguments excedentaires
|
**kw, # ceci pour absorber les éventuel arguments excedentaires
|
||||||
):
|
) -> "Evaluation":
|
||||||
"""Create an evaluation. Check permission and all arguments.
|
"""Create an evaluation. Check permission and all arguments.
|
||||||
Ne crée pas les poids vers les UEs.
|
Ne crée pas les poids vers les UEs.
|
||||||
Add to session, do not commit.
|
Add to session, do not commit.
|
||||||
|
@ -103,7 +112,7 @@ class Evaluation(models.ScoDocModel):
|
||||||
args = locals()
|
args = locals()
|
||||||
del args["cls"]
|
del args["cls"]
|
||||||
del args["kw"]
|
del args["kw"]
|
||||||
check_convert_evaluation_args(moduleimpl, args)
|
check_and_convert_evaluation_args(args, moduleimpl)
|
||||||
# Check numeros
|
# Check numeros
|
||||||
Evaluation.moduleimpl_evaluation_renumber(moduleimpl, only_if_unumbered=True)
|
Evaluation.moduleimpl_evaluation_renumber(moduleimpl, only_if_unumbered=True)
|
||||||
if not "numero" in args or args["numero"] is None:
|
if not "numero" in args or args["numero"] is None:
|
||||||
|
@ -207,7 +216,9 @@ class Evaluation(models.ScoDocModel):
|
||||||
e_dict["poids"] = self.get_ue_poids_dict() # { ue_id : poids }
|
e_dict["poids"] = self.get_ue_poids_dict() # { ue_id : poids }
|
||||||
|
|
||||||
# Deprecated
|
# Deprecated
|
||||||
e_dict["jour"] = self.date_debut.strftime("%d/%m/%Y") if self.date_debut else ""
|
e_dict["jour"] = (
|
||||||
|
self.date_debut.strftime(scu.DATE_FMT) if self.date_debut else ""
|
||||||
|
)
|
||||||
|
|
||||||
return evaluation_enrich_dict(self, e_dict)
|
return evaluation_enrich_dict(self, e_dict)
|
||||||
|
|
||||||
|
@ -254,15 +265,6 @@ class Evaluation(models.ScoDocModel):
|
||||||
|
|
||||||
return e_dict
|
return e_dict
|
||||||
|
|
||||||
def convert_dict_fields(self, args: dict) -> dict:
|
|
||||||
"""Convert fields in the given dict. No other side effect.
|
|
||||||
returns: dict to store in model's db.
|
|
||||||
"""
|
|
||||||
check_convert_evaluation_args(self.moduleimpl, args)
|
|
||||||
if args.get("numero") is None:
|
|
||||||
args["numero"] = Evaluation.get_max_numero(self.moduleimpl.id) + 1
|
|
||||||
return args
|
|
||||||
|
|
||||||
@classmethod
|
@classmethod
|
||||||
def get_evaluation(
|
def get_evaluation(
|
||||||
cls, evaluation_id: int | str, dept_id: int = None
|
cls, evaluation_id: int | str, dept_id: int = None
|
||||||
|
@ -324,10 +326,10 @@ class Evaluation(models.ScoDocModel):
|
||||||
def descr_heure(self) -> str:
|
def descr_heure(self) -> str:
|
||||||
"Description de la plage horaire pour affichages ('de 13h00 à 14h00')"
|
"Description de la plage horaire pour affichages ('de 13h00 à 14h00')"
|
||||||
if self.date_debut and (not self.date_fin or self.date_fin == self.date_debut):
|
if self.date_debut and (not self.date_fin or self.date_fin == self.date_debut):
|
||||||
return f"""à {self.date_debut.strftime("%Hh%M")}"""
|
return f"""à {self.date_debut.strftime(scu.TIME_FMT)}"""
|
||||||
elif self.date_debut and self.date_fin:
|
elif self.date_debut and self.date_fin:
|
||||||
return f"""de {self.date_debut.strftime("%Hh%M")
|
return f"""de {self.date_debut.strftime(scu.TIME_FMT)
|
||||||
} à {self.date_fin.strftime("%Hh%M")}"""
|
} à {self.date_fin.strftime(scu.TIME_FMT)}"""
|
||||||
else:
|
else:
|
||||||
return ""
|
return ""
|
||||||
|
|
||||||
|
@ -354,7 +356,7 @@ class Evaluation(models.ScoDocModel):
|
||||||
|
|
||||||
def _h(dt: datetime.datetime) -> str:
|
def _h(dt: datetime.datetime) -> str:
|
||||||
if dt.minute:
|
if dt.minute:
|
||||||
return dt.strftime("%Hh%M")
|
return dt.strftime(scu.TIME_FMT)
|
||||||
return f"{dt.hour}h"
|
return f"{dt.hour}h"
|
||||||
|
|
||||||
if self.date_fin is None:
|
if self.date_fin is None:
|
||||||
|
@ -424,12 +426,13 @@ class Evaluation(models.ScoDocModel):
|
||||||
return modified
|
return modified
|
||||||
|
|
||||||
def set_ue_poids(self, ue, poids: float) -> None:
|
def set_ue_poids(self, ue, poids: float) -> None:
|
||||||
"""Set poids évaluation vers cette UE"""
|
"""Set poids évaluation vers cette UE. Commit."""
|
||||||
self.update_ue_poids_dict({ue.id: poids})
|
self.update_ue_poids_dict({ue.id: poids})
|
||||||
|
|
||||||
def set_ue_poids_dict(self, ue_poids_dict: dict) -> None:
|
def set_ue_poids_dict(self, ue_poids_dict: dict) -> None:
|
||||||
"""set poids vers les UE (remplace existants)
|
"""set poids vers les UE (remplace existants)
|
||||||
ue_poids_dict = { ue_id : poids }
|
ue_poids_dict = { ue_id : poids }
|
||||||
|
Commit session.
|
||||||
"""
|
"""
|
||||||
from app.models.ues import UniteEns
|
from app.models.ues import UniteEns
|
||||||
|
|
||||||
|
@ -439,9 +442,12 @@ class Evaluation(models.ScoDocModel):
|
||||||
if ue is None:
|
if ue is None:
|
||||||
raise ScoValueError("poids vers une UE inexistante")
|
raise ScoValueError("poids vers une UE inexistante")
|
||||||
ue_poids = EvaluationUEPoids(evaluation=self, ue=ue, poids=poids)
|
ue_poids = EvaluationUEPoids(evaluation=self, ue=ue, poids=poids)
|
||||||
L.append(ue_poids)
|
|
||||||
db.session.add(ue_poids)
|
db.session.add(ue_poids)
|
||||||
|
L.append(ue_poids)
|
||||||
|
|
||||||
self.ue_poids = L # backref # pylint:disable=attribute-defined-outside-init
|
self.ue_poids = L # backref # pylint:disable=attribute-defined-outside-init
|
||||||
|
|
||||||
|
db.session.commit()
|
||||||
self.moduleimpl.invalidate_evaluations_poids() # inval cache
|
self.moduleimpl.invalidate_evaluations_poids() # inval cache
|
||||||
|
|
||||||
def update_ue_poids_dict(self, ue_poids_dict: dict) -> None:
|
def update_ue_poids_dict(self, ue_poids_dict: dict) -> None:
|
||||||
|
@ -548,8 +554,8 @@ class EvaluationUEPoids(db.Model):
|
||||||
def evaluation_enrich_dict(e: Evaluation, e_dict: dict):
|
def evaluation_enrich_dict(e: Evaluation, e_dict: dict):
|
||||||
"""add or convert some fields in an evaluation dict"""
|
"""add or convert some fields in an evaluation dict"""
|
||||||
# For ScoDoc7 compat
|
# For ScoDoc7 compat
|
||||||
e_dict["heure_debut"] = e.date_debut.strftime("%Hh%M") if e.date_debut else ""
|
e_dict["heure_debut"] = e.date_debut.strftime(scu.TIME_FMT) if e.date_debut else ""
|
||||||
e_dict["heure_fin"] = e.date_fin.strftime("%Hh%M") if e.date_fin else ""
|
e_dict["heure_fin"] = e.date_fin.strftime(scu.TIME_FMT) if e.date_fin else ""
|
||||||
e_dict["jour_iso"] = e.date_debut.isoformat() if e.date_debut else ""
|
e_dict["jour_iso"] = e.date_debut.isoformat() if e.date_debut else ""
|
||||||
# Calcule durée en minutes
|
# Calcule durée en minutes
|
||||||
e_dict["descrheure"] = e.descr_heure()
|
e_dict["descrheure"] = e.descr_heure()
|
||||||
|
@ -568,7 +574,7 @@ def evaluation_enrich_dict(e: Evaluation, e_dict: dict):
|
||||||
return e_dict
|
return e_dict
|
||||||
|
|
||||||
|
|
||||||
def check_convert_evaluation_args(moduleimpl: "ModuleImpl", data: dict):
|
def check_and_convert_evaluation_args(data: dict, moduleimpl: "ModuleImpl"):
|
||||||
"""Check coefficient, dates and duration, raises exception if invalid.
|
"""Check coefficient, dates and duration, raises exception if invalid.
|
||||||
Convert date and time strings to date and time objects.
|
Convert date and time strings to date and time objects.
|
||||||
|
|
||||||
|
@ -608,7 +614,7 @@ def check_convert_evaluation_args(moduleimpl: "ModuleImpl", data: dict):
|
||||||
if coef < 0:
|
if coef < 0:
|
||||||
raise ScoValueError("invalid coefficient value (must be positive or null)")
|
raise ScoValueError("invalid coefficient value (must be positive or null)")
|
||||||
data["coefficient"] = coef
|
data["coefficient"] = coef
|
||||||
# --- date de l'évaluation
|
# --- date de l'évaluation dans le semestre ?
|
||||||
formsemestre = moduleimpl.formsemestre
|
formsemestre = moduleimpl.formsemestre
|
||||||
date_debut = data.get("date_debut", None)
|
date_debut = data.get("date_debut", None)
|
||||||
if date_debut:
|
if date_debut:
|
||||||
|
@ -623,7 +629,7 @@ def check_convert_evaluation_args(moduleimpl: "ModuleImpl", data: dict):
|
||||||
):
|
):
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
f"""La date de début de l'évaluation ({
|
f"""La date de début de l'évaluation ({
|
||||||
data["date_debut"].strftime("%d/%m/%Y")
|
data["date_debut"].strftime(scu.DATE_FMT)
|
||||||
}) n'est pas dans le semestre !""",
|
}) n'est pas dans le semestre !""",
|
||||||
dest_url="javascript:history.back();",
|
dest_url="javascript:history.back();",
|
||||||
)
|
)
|
||||||
|
@ -638,7 +644,7 @@ def check_convert_evaluation_args(moduleimpl: "ModuleImpl", data: dict):
|
||||||
):
|
):
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
f"""La date de fin de l'évaluation ({
|
f"""La date de fin de l'évaluation ({
|
||||||
data["date_fin"].strftime("%d/%m/%Y")
|
data["date_fin"].strftime(scu.DATE_FMT)
|
||||||
}) n'est pas dans le semestre !""",
|
}) n'est pas dans le semestre !""",
|
||||||
dest_url="javascript:history.back();",
|
dest_url="javascript:history.back();",
|
||||||
)
|
)
|
||||||
|
|
|
@ -232,7 +232,9 @@ class ScolarNews(db.Model):
|
||||||
)
|
)
|
||||||
|
|
||||||
# Transforme les URL en URL absolues
|
# Transforme les URL en URL absolues
|
||||||
base = scu.ScoURL()
|
base = url_for("scolar.index_html", scodoc_dept=g.scodoc_dept)[
|
||||||
|
: -len("/index_html")
|
||||||
|
]
|
||||||
txt = re.sub('href=/.*?"', 'href="' + base + "/", txt)
|
txt = re.sub('href=/.*?"', 'href="' + base + "/", txt)
|
||||||
|
|
||||||
# Transforme les liens HTML en texte brut: '<a href="url">texte</a>' devient 'texte: url'
|
# Transforme les liens HTML en texte brut: '<a href="url">texte</a>' devient 'texte: url'
|
||||||
|
@ -249,11 +251,12 @@ class ScolarNews(db.Model):
|
||||||
news_list = cls.last_news(n=n)
|
news_list = cls.last_news(n=n)
|
||||||
if not news_list:
|
if not news_list:
|
||||||
return ""
|
return ""
|
||||||
|
dept_news_url = url_for("scolar.dept_news", scodoc_dept=g.scodoc_dept)
|
||||||
H = [
|
H = [
|
||||||
f"""<div class="news"><span class="newstitle"><a href="{
|
f"""<div class="scobox news"><div class="scobox-title"><a href="{
|
||||||
url_for("scolar.dept_news", scodoc_dept=g.scodoc_dept)
|
dept_news_url
|
||||||
}">Dernières opérations</a>
|
}">Dernières opérations</a>
|
||||||
</span><ul class="newslist">"""
|
</div><ul class="newslist">"""
|
||||||
]
|
]
|
||||||
|
|
||||||
for news in news_list:
|
for news in news_list:
|
||||||
|
@ -261,16 +264,22 @@ class ScolarNews(db.Model):
|
||||||
f"""<li class="newslist"><span class="newsdate">{news.formatted_date()}</span><span
|
f"""<li class="newslist"><span class="newsdate">{news.formatted_date()}</span><span
|
||||||
class="newstext">{news}</span></li>"""
|
class="newstext">{news}</span></li>"""
|
||||||
)
|
)
|
||||||
|
H.append(
|
||||||
|
f"""<li class="newslist">
|
||||||
|
<span class="newstext"><a href="{dept_news_url}" class="stdlink">...</a>
|
||||||
|
</span>
|
||||||
|
</li>"""
|
||||||
|
)
|
||||||
|
|
||||||
H.append("</ul>")
|
H.append("</ul></div>")
|
||||||
|
|
||||||
# Informations générales
|
# Informations générales
|
||||||
H.append(
|
H.append(
|
||||||
f"""<div><a class="discretelink" href="{scu.SCO_ANNONCES_WEBSITE}">
|
f"""<div>
|
||||||
Pour en savoir plus sur ScoDoc voir le site scodoc.org</a>.
|
Pour en savoir plus sur ScoDoc voir
|
||||||
|
<a class="stdlink" href="{scu.SCO_ANNONCES_WEBSITE}">scodoc.org</a>
|
||||||
</div>
|
</div>
|
||||||
"""
|
"""
|
||||||
)
|
)
|
||||||
|
|
||||||
H.append("</div>")
|
|
||||||
return "\n".join(H)
|
return "\n".join(H)
|
||||||
|
|
|
@ -1,5 +1,7 @@
|
||||||
"""ScoDoc 9 models : Formations
|
"""ScoDoc 9 models : Formations
|
||||||
"""
|
"""
|
||||||
|
|
||||||
|
from flask import abort, g
|
||||||
from flask_sqlalchemy.query import Query
|
from flask_sqlalchemy.query import Query
|
||||||
|
|
||||||
import app
|
import app
|
||||||
|
@ -64,6 +66,21 @@ class Formation(db.Model):
|
||||||
"titre complet pour affichage"
|
"titre complet pour affichage"
|
||||||
return f"""Formation {self.titre} ({self.acronyme}) [version {self.version}] code {self.formation_code}"""
|
return f"""Formation {self.titre} ({self.acronyme}) [version {self.version}] code {self.formation_code}"""
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def get_formation(cls, formation_id: int | str, dept_id: int = None) -> "Formation":
|
||||||
|
"""Formation ou 404, cherche uniquement dans le département spécifié
|
||||||
|
ou le courant (g.scodoc_dept)"""
|
||||||
|
if not isinstance(formation_id, int):
|
||||||
|
try:
|
||||||
|
formation_id = int(formation_id)
|
||||||
|
except (TypeError, ValueError):
|
||||||
|
abort(404, "formation_id invalide")
|
||||||
|
if g.scodoc_dept:
|
||||||
|
dept_id = dept_id if dept_id is not None else g.scodoc_dept_id
|
||||||
|
if dept_id is not None:
|
||||||
|
return cls.query.filter_by(id=formation_id, dept_id=dept_id).first_or_404()
|
||||||
|
return cls.query.filter_by(id=formation_id).first_or_404()
|
||||||
|
|
||||||
def to_dict(self, with_refcomp_attrs=False, with_departement=True):
|
def to_dict(self, with_refcomp_attrs=False, with_departement=True):
|
||||||
"""As a dict.
|
"""As a dict.
|
||||||
Si with_refcomp_attrs, ajoute attributs permettant de retrouver le ref. de comp.
|
Si with_refcomp_attrs, ajoute attributs permettant de retrouver le ref. de comp.
|
||||||
|
|
|
@ -25,6 +25,7 @@ from sqlalchemy import func
|
||||||
import app.scodoc.sco_utils as scu
|
import app.scodoc.sco_utils as scu
|
||||||
from app import db, log
|
from app import db, log
|
||||||
from app.auth.models import User
|
from app.auth.models import User
|
||||||
|
from app import models
|
||||||
from app.models import APO_CODE_STR_LEN, CODE_STR_LEN, SHORT_STR_LEN
|
from app.models import APO_CODE_STR_LEN, CODE_STR_LEN, SHORT_STR_LEN
|
||||||
from app.models.but_refcomp import (
|
from app.models.but_refcomp import (
|
||||||
ApcParcours,
|
ApcParcours,
|
||||||
|
@ -54,7 +55,7 @@ from app.scodoc.sco_vdi import ApoEtapeVDI
|
||||||
GROUPS_AUTO_ASSIGNMENT_DATA_MAX = 1024 * 1024 # bytes
|
GROUPS_AUTO_ASSIGNMENT_DATA_MAX = 1024 * 1024 # bytes
|
||||||
|
|
||||||
|
|
||||||
class FormSemestre(db.Model):
|
class FormSemestre(models.ScoDocModel):
|
||||||
"""Mise en oeuvre d'un semestre de formation"""
|
"""Mise en oeuvre d'un semestre de formation"""
|
||||||
|
|
||||||
__tablename__ = "notes_formsemestre"
|
__tablename__ = "notes_formsemestre"
|
||||||
|
@ -84,7 +85,7 @@ class FormSemestre(db.Model):
|
||||||
bul_hide_xml = db.Column(
|
bul_hide_xml = db.Column(
|
||||||
db.Boolean(), nullable=False, default=False, server_default="false"
|
db.Boolean(), nullable=False, default=False, server_default="false"
|
||||||
)
|
)
|
||||||
"ne publie pas le bulletin XML ou JSON"
|
"ne publie pas le bulletin sur l'API"
|
||||||
block_moyennes = db.Column(
|
block_moyennes = db.Column(
|
||||||
db.Boolean(), nullable=False, default=False, server_default="false"
|
db.Boolean(), nullable=False, default=False, server_default="false"
|
||||||
)
|
)
|
||||||
|
@ -191,7 +192,8 @@ class FormSemestre(db.Model):
|
||||||
def get_formsemestre(
|
def get_formsemestre(
|
||||||
cls, formsemestre_id: int | str, dept_id: int = None
|
cls, formsemestre_id: int | str, dept_id: int = None
|
||||||
) -> "FormSemestre":
|
) -> "FormSemestre":
|
||||||
"""FormSemestre ou 404, cherche uniquement dans le département spécifié ou le courant"""
|
"""FormSemestre ou 404, cherche uniquement dans le département spécifié
|
||||||
|
ou le courant (g.scodoc_dept)"""
|
||||||
if not isinstance(formsemestre_id, int):
|
if not isinstance(formsemestre_id, int):
|
||||||
try:
|
try:
|
||||||
formsemestre_id = int(formsemestre_id)
|
formsemestre_id = int(formsemestre_id)
|
||||||
|
@ -206,7 +208,7 @@ class FormSemestre(db.Model):
|
||||||
return cls.query.filter_by(id=formsemestre_id).first_or_404()
|
return cls.query.filter_by(id=formsemestre_id).first_or_404()
|
||||||
|
|
||||||
def sort_key(self) -> tuple:
|
def sort_key(self) -> tuple:
|
||||||
"""clé pour tris par ordre alphabétique
|
"""clé pour tris par ordre de date_debut, le plus ancien en tête
|
||||||
(pour avoir le plus récent d'abord, sort avec reverse=True)"""
|
(pour avoir le plus récent d'abord, sort avec reverse=True)"""
|
||||||
return (self.date_debut, self.semestre_id)
|
return (self.date_debut, self.semestre_id)
|
||||||
|
|
||||||
|
@ -222,12 +224,12 @@ class FormSemestre(db.Model):
|
||||||
d["formsemestre_id"] = self.id
|
d["formsemestre_id"] = self.id
|
||||||
d["titre_num"] = self.titre_num()
|
d["titre_num"] = self.titre_num()
|
||||||
if self.date_debut:
|
if self.date_debut:
|
||||||
d["date_debut"] = self.date_debut.strftime("%d/%m/%Y")
|
d["date_debut"] = self.date_debut.strftime(scu.DATE_FMT)
|
||||||
d["date_debut_iso"] = self.date_debut.isoformat()
|
d["date_debut_iso"] = self.date_debut.isoformat()
|
||||||
else:
|
else:
|
||||||
d["date_debut"] = d["date_debut_iso"] = ""
|
d["date_debut"] = d["date_debut_iso"] = ""
|
||||||
if self.date_fin:
|
if self.date_fin:
|
||||||
d["date_fin"] = self.date_fin.strftime("%d/%m/%Y")
|
d["date_fin"] = self.date_fin.strftime(scu.DATE_FMT)
|
||||||
d["date_fin_iso"] = self.date_fin.isoformat()
|
d["date_fin_iso"] = self.date_fin.isoformat()
|
||||||
else:
|
else:
|
||||||
d["date_fin"] = d["date_fin_iso"] = ""
|
d["date_fin"] = d["date_fin_iso"] = ""
|
||||||
|
@ -245,19 +247,20 @@ class FormSemestre(db.Model):
|
||||||
|
|
||||||
def to_dict_api(self):
|
def to_dict_api(self):
|
||||||
"""
|
"""
|
||||||
Un dict avec les informations sur le semestre destiné à l'api
|
Un dict avec les informations sur le semestre destinées à l'api
|
||||||
"""
|
"""
|
||||||
d = dict(self.__dict__)
|
d = dict(self.__dict__)
|
||||||
d.pop("_sa_instance_state", None)
|
d.pop("_sa_instance_state", None)
|
||||||
d.pop("groups_auto_assignment_data", None)
|
d.pop("groups_auto_assignment_data", None)
|
||||||
d["annee_scolaire"] = self.annee_scolaire()
|
d["annee_scolaire"] = self.annee_scolaire()
|
||||||
|
d["bul_hide_xml"] = self.bul_hide_xml
|
||||||
if self.date_debut:
|
if self.date_debut:
|
||||||
d["date_debut"] = self.date_debut.strftime("%d/%m/%Y")
|
d["date_debut"] = self.date_debut.strftime(scu.DATE_FMT)
|
||||||
d["date_debut_iso"] = self.date_debut.isoformat()
|
d["date_debut_iso"] = self.date_debut.isoformat()
|
||||||
else:
|
else:
|
||||||
d["date_debut"] = d["date_debut_iso"] = ""
|
d["date_debut"] = d["date_debut_iso"] = ""
|
||||||
if self.date_fin:
|
if self.date_fin:
|
||||||
d["date_fin"] = self.date_fin.strftime("%d/%m/%Y")
|
d["date_fin"] = self.date_fin.strftime(scu.DATE_FMT)
|
||||||
d["date_fin_iso"] = self.date_fin.isoformat()
|
d["date_fin_iso"] = self.date_fin.isoformat()
|
||||||
else:
|
else:
|
||||||
d["date_fin"] = d["date_fin_iso"] = ""
|
d["date_fin"] = d["date_fin_iso"] = ""
|
||||||
|
@ -873,9 +876,9 @@ class FormSemestre(db.Model):
|
||||||
descr_sem += " " + self.modalite
|
descr_sem += " " + self.modalite
|
||||||
return descr_sem
|
return descr_sem
|
||||||
|
|
||||||
def get_abs_count(self, etudid):
|
def get_abs_count(self, etudid) -> tuple[int, int, int]:
|
||||||
"""Les comptes d'absences de cet étudiant dans ce semestre:
|
"""Les comptes d'absences de cet étudiant dans ce semestre:
|
||||||
tuple (nb abs, nb abs justifiées)
|
tuple (nb abs non just, nb abs justifiées, nb abs total)
|
||||||
Utilise un cache.
|
Utilise un cache.
|
||||||
"""
|
"""
|
||||||
from app.scodoc import sco_assiduites
|
from app.scodoc import sco_assiduites
|
||||||
|
@ -933,12 +936,16 @@ class FormSemestre(db.Model):
|
||||||
partitions += [p for p in self.partitions if p.partition_name is None]
|
partitions += [p for p in self.partitions if p.partition_name is None]
|
||||||
return partitions
|
return partitions
|
||||||
|
|
||||||
@cached_property
|
def etudids_actifs(self) -> tuple[list[int], set[int]]:
|
||||||
def etudids_actifs(self) -> set:
|
"""Liste les etudids inscrits (incluant DEM et DEF),
|
||||||
"Set des etudids inscrits non démissionnaires et non défaillants"
|
qui ser al'index des dataframes de notes
|
||||||
return {ins.etudid for ins in self.inscriptions if ins.etat == scu.INSCRIT}
|
et donne l'ensemble des inscrits non DEM ni DEF.
|
||||||
|
"""
|
||||||
|
return [inscr.etudid for inscr in self.inscriptions], {
|
||||||
|
ins.etudid for ins in self.inscriptions if ins.etat == scu.INSCRIT
|
||||||
|
}
|
||||||
|
|
||||||
@cached_property
|
@property
|
||||||
def etuds_inscriptions(self) -> dict:
|
def etuds_inscriptions(self) -> dict:
|
||||||
"""Map { etudid : inscription } (incluant DEM et DEF)"""
|
"""Map { etudid : inscription } (incluant DEM et DEF)"""
|
||||||
return {ins.etud.id: ins for ins in self.inscriptions}
|
return {ins.etud.id: ins for ins in self.inscriptions}
|
||||||
|
|
|
@ -6,6 +6,7 @@ from flask import abort, g
|
||||||
from flask_login import current_user
|
from flask_login import current_user
|
||||||
from flask_sqlalchemy.query import Query
|
from flask_sqlalchemy.query import Query
|
||||||
|
|
||||||
|
import app
|
||||||
from app import db
|
from app import db
|
||||||
from app.auth.models import User
|
from app.auth.models import User
|
||||||
from app.comp import df_cache
|
from app.comp import df_cache
|
||||||
|
@ -78,7 +79,9 @@ class ModuleImpl(ScoDocModel):
|
||||||
] or self.module.get_edt_ids()
|
] or self.module.get_edt_ids()
|
||||||
|
|
||||||
def get_evaluations_poids(self) -> pd.DataFrame:
|
def get_evaluations_poids(self) -> pd.DataFrame:
|
||||||
"""Les poids des évaluations vers les UE (accès via cache)"""
|
"""Les poids des évaluations vers les UEs (accès via cache redis).
|
||||||
|
Toutes les évaluations sont considérées (normales, bonus, rattr., etc.)
|
||||||
|
"""
|
||||||
evaluations_poids = df_cache.EvaluationsPoidsCache.get(self.id)
|
evaluations_poids = df_cache.EvaluationsPoidsCache.get(self.id)
|
||||||
if evaluations_poids is None:
|
if evaluations_poids is None:
|
||||||
from app.comp import moy_mod
|
from app.comp import moy_mod
|
||||||
|
@ -108,20 +111,37 @@ class ModuleImpl(ScoDocModel):
|
||||||
"""Invalide poids cachés"""
|
"""Invalide poids cachés"""
|
||||||
df_cache.EvaluationsPoidsCache.delete(self.id)
|
df_cache.EvaluationsPoidsCache.delete(self.id)
|
||||||
|
|
||||||
def check_apc_conformity(self, res: "ResultatsSemestreBUT") -> bool:
|
def check_apc_conformity(
|
||||||
"""true si les poids des évaluations du module permettent de satisfaire
|
self, res: "ResultatsSemestreBUT", evaluation_type=Evaluation.EVALUATION_NORMALE
|
||||||
les coefficients du PN.
|
) -> bool:
|
||||||
|
"""true si les poids des évaluations du type indiqué (normales par défaut)
|
||||||
|
du module permettent de satisfaire les coefficients du PN.
|
||||||
"""
|
"""
|
||||||
|
# appelé par formsemestre_status, liste notes, et moduleimpl_status
|
||||||
if not self.module.formation.get_cursus().APC_SAE or (
|
if not self.module.formation.get_cursus().APC_SAE or (
|
||||||
self.module.module_type != scu.ModuleType.RESSOURCE
|
self.module.module_type
|
||||||
and self.module.module_type != scu.ModuleType.SAE
|
not in {scu.ModuleType.RESSOURCE, scu.ModuleType.SAE}
|
||||||
):
|
):
|
||||||
return True # Non BUT, toujours conforme
|
return True # Non BUT, toujours conforme
|
||||||
from app.comp import moy_mod
|
from app.comp import moy_mod
|
||||||
|
|
||||||
|
mod_results = res.modimpls_results.get(self.id)
|
||||||
|
if mod_results is None:
|
||||||
|
app.critical_error("check_apc_conformity: err 1")
|
||||||
|
|
||||||
|
selected_evaluations_ids = [
|
||||||
|
eval_id
|
||||||
|
for eval_id, eval_type in mod_results.evals_type.items()
|
||||||
|
if eval_type == evaluation_type
|
||||||
|
]
|
||||||
|
if not selected_evaluations_ids:
|
||||||
|
return True # conforme si pas d'évaluations
|
||||||
|
selected_evaluations_poids = self.get_evaluations_poids().loc[
|
||||||
|
selected_evaluations_ids
|
||||||
|
]
|
||||||
return moy_mod.moduleimpl_is_conforme(
|
return moy_mod.moduleimpl_is_conforme(
|
||||||
self,
|
self,
|
||||||
self.get_evaluations_poids(),
|
selected_evaluations_poids,
|
||||||
res.modimpl_coefs_df,
|
res.modimpl_coefs_df,
|
||||||
)
|
)
|
||||||
|
|
||||||
|
|
|
@ -340,6 +340,21 @@ class Module(models.ScoDocModel):
|
||||||
# Liste seulement les coefs définis:
|
# Liste seulement les coefs définis:
|
||||||
return [(c.ue, c.coef) for c in self.get_ue_coefs_sorted()]
|
return [(c.ue, c.coef) for c in self.get_ue_coefs_sorted()]
|
||||||
|
|
||||||
|
def get_ue_coefs_descr(self) -> str:
|
||||||
|
"""Description des coefficients vers les UEs (APC)"""
|
||||||
|
coefs_descr = ", ".join(
|
||||||
|
[
|
||||||
|
f"{ue.acronyme}: {co}"
|
||||||
|
for ue, co in self.ue_coefs_list()
|
||||||
|
if isinstance(co, float) and co > 0
|
||||||
|
]
|
||||||
|
)
|
||||||
|
if coefs_descr:
|
||||||
|
descr = "Coefs: " + coefs_descr
|
||||||
|
else:
|
||||||
|
descr = "(pas de coefficients) "
|
||||||
|
return descr
|
||||||
|
|
||||||
def get_codes_apogee(self) -> set[str]:
|
def get_codes_apogee(self) -> set[str]:
|
||||||
"""Les codes Apogée (codés en base comme "VRT1,VRT2")"""
|
"""Les codes Apogée (codés en base comme "VRT1,VRT2")"""
|
||||||
if self.code_apogee:
|
if self.code_apogee:
|
||||||
|
|
|
@ -409,6 +409,14 @@ class UniteEns(models.ScoDocModel):
|
||||||
Renvoie (True, "") si ok, sinon (False, error_message)
|
Renvoie (True, "") si ok, sinon (False, error_message)
|
||||||
"""
|
"""
|
||||||
msg = ""
|
msg = ""
|
||||||
|
# Safety check
|
||||||
|
if self.formation.referentiel_competence is None:
|
||||||
|
return False, "pas de référentiel de compétence"
|
||||||
|
# Si tous les parcours, aucun (tronc commun)
|
||||||
|
if {p.id for p in parcours} == {
|
||||||
|
p.id for p in self.formation.referentiel_competence.parcours
|
||||||
|
}:
|
||||||
|
parcours = []
|
||||||
# Le niveau est-il dans tous ces parcours ? Sinon, l'enlève
|
# Le niveau est-il dans tous ces parcours ? Sinon, l'enlève
|
||||||
prev_niveau = self.niveau_competence
|
prev_niveau = self.niveau_competence
|
||||||
if (
|
if (
|
||||||
|
@ -424,6 +432,7 @@ class UniteEns(models.ScoDocModel):
|
||||||
self.niveau_competence, parcours
|
self.niveau_competence, parcours
|
||||||
)
|
)
|
||||||
if not ok:
|
if not ok:
|
||||||
|
self.formation.invalidate_cached_sems()
|
||||||
self.niveau_competence = prev_niveau # restore
|
self.niveau_competence = prev_niveau # restore
|
||||||
return False, error_message
|
return False, error_message
|
||||||
|
|
||||||
|
|
|
@ -72,7 +72,7 @@ class ScolarFormSemestreValidation(db.Model):
|
||||||
return f"""décision sur UE {self.ue.acronyme if self.ue else self.ue_id
|
return f"""décision sur UE {self.ue.acronyme if self.ue else self.ue_id
|
||||||
} ({self.ue_id}): {self.code}"""
|
} ({self.ue_id}): {self.code}"""
|
||||||
return f"""décision sur semestre {self.formsemestre.titre_mois()} du {
|
return f"""décision sur semestre {self.formsemestre.titre_mois()} du {
|
||||||
self.event_date.strftime("%d/%m/%Y")}"""
|
self.event_date.strftime(scu.DATE_FMT)}"""
|
||||||
|
|
||||||
def delete(self):
|
def delete(self):
|
||||||
"Efface cette validation"
|
"Efface cette validation"
|
||||||
|
@ -113,14 +113,14 @@ class ScolarFormSemestreValidation(db.Model):
|
||||||
if self.ue.parcours else ""}
|
if self.ue.parcours else ""}
|
||||||
{("émise par " + link)}
|
{("émise par " + link)}
|
||||||
: <b>{self.code}</b>{moyenne}
|
: <b>{self.code}</b>{moyenne}
|
||||||
le {self.event_date.strftime("%d/%m/%Y")} à {self.event_date.strftime("%Hh%M")}
|
le {self.event_date.strftime(scu.DATEATIME_FMT)}
|
||||||
"""
|
"""
|
||||||
else:
|
else:
|
||||||
return f"""Validation du semestre S{
|
return f"""Validation du semestre S{
|
||||||
self.formsemestre.semestre_id if self.formsemestre else "?"}
|
self.formsemestre.semestre_id if self.formsemestre else "?"}
|
||||||
{self.formsemestre.html_link_status() if self.formsemestre else ""}
|
{self.formsemestre.html_link_status() if self.formsemestre else ""}
|
||||||
: <b>{self.code}</b>
|
: <b>{self.code}</b>
|
||||||
le {self.event_date.strftime("%d/%m/%Y")} à {self.event_date.strftime("%Hh%M")}
|
le {self.event_date.strftime(scu.DATEATIME_FMT)}
|
||||||
"""
|
"""
|
||||||
|
|
||||||
def ects(self) -> float:
|
def ects(self) -> float:
|
||||||
|
@ -175,8 +175,8 @@ class ScolarAutorisationInscription(db.Model):
|
||||||
)
|
)
|
||||||
return f"""Autorisation de passage vers <b>S{self.semestre_id}</b> émise par
|
return f"""Autorisation de passage vers <b>S{self.semestre_id}</b> émise par
|
||||||
{link}
|
{link}
|
||||||
le {self.date.strftime("%d/%m/%Y")} à {self.date.strftime("%Hh%M")}
|
le {self.date.strftime(scu.DATEATIME_FMT)}
|
||||||
"""
|
"""
|
||||||
|
|
||||||
@classmethod
|
@classmethod
|
||||||
def autorise_etud(
|
def autorise_etud(
|
||||||
|
|
0
app/pe/moys/__init__.py
Normal file
0
app/pe/moys/__init__.py
Normal file
342
app/pe/moys/pe_interclasstag.py
Normal file
342
app/pe/moys/pe_interclasstag.py
Normal file
|
@ -0,0 +1,342 @@
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# Gestion scolarite IUT
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on Thu Sep 8 09:36:33 2016
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
|
||||||
|
import pandas as pd
|
||||||
|
import numpy as np
|
||||||
|
|
||||||
|
from app.models import Identite
|
||||||
|
from app.pe import pe_affichage
|
||||||
|
from app.pe.moys import pe_tabletags, pe_moy, pe_moytag, pe_sxtag
|
||||||
|
from app.pe.rcss import pe_rcs
|
||||||
|
import app.pe.pe_comp as pe_comp
|
||||||
|
from app.scodoc.sco_utils import ModuleType
|
||||||
|
|
||||||
|
|
||||||
|
class InterClassTag(pe_tabletags.TableTag):
|
||||||
|
"""
|
||||||
|
Interclasse l'ensemble des étudiants diplômés à une année
|
||||||
|
donnée (celle du jury), pour un RCS donné (par ex: 'S2', '3S'), qu'il soit
|
||||||
|
de type SemX ou RCSemX,
|
||||||
|
en reportant les moyennes obtenues sur à la version tagguée
|
||||||
|
du RCS (de type SxTag ou RCSTag).
|
||||||
|
Sont ensuite calculés les classements (uniquement)
|
||||||
|
sur les étudiants diplômes.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
nom_rcs: Le nom de l'aggrégat
|
||||||
|
type_interclassement: Le type d'interclassement (par UE ou par compétences)
|
||||||
|
etudiants_diplomes: L'identité des étudiants diplômés
|
||||||
|
rcss: Un dictionnaire {(nom_rcs, fid_final): RCS} donnant soit
|
||||||
|
les SemX soit les RCSemX recencés par le jury PE
|
||||||
|
rcstag: Un dictionnaire {(nom_rcs, fid_final): RCSTag} donnant
|
||||||
|
soit les SxTag (associés aux SemX)
|
||||||
|
soit les RCSTags (associés au RCSemX) calculés par le jury PE
|
||||||
|
suivis: Un dictionnaire associé à chaque étudiant son rcss
|
||||||
|
(de la forme ``{etudid: {nom_rcs: RCS_suivi}}``)
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(
|
||||||
|
self,
|
||||||
|
nom_rcs: str,
|
||||||
|
type_interclassement: str,
|
||||||
|
etudiants_diplomes: dict[int, Identite],
|
||||||
|
rcss: dict[(str, int) : pe_rcs.RCS],
|
||||||
|
rcstags: dict[(str, int) : pe_tabletags.TableTag],
|
||||||
|
suivis: dict[int:dict],
|
||||||
|
):
|
||||||
|
pe_tabletags.TableTag.__init__(self)
|
||||||
|
|
||||||
|
self.nom_rcs: str = nom_rcs
|
||||||
|
"""Le nom du RCS interclassé"""
|
||||||
|
|
||||||
|
# Le type d'interclassement
|
||||||
|
self.type = type_interclassement
|
||||||
|
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"*** Interclassement par 🗂️{type_interclassement} pour le RCS ⏯️{nom_rcs}"
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les informations sur les étudiants diplômés
|
||||||
|
self.etuds: list[Identite] = list(etudiants_diplomes.values())
|
||||||
|
"""Identités des étudiants diplômés"""
|
||||||
|
self.add_etuds(self.etuds)
|
||||||
|
|
||||||
|
self.diplomes_ids = set(etudiants_diplomes.keys())
|
||||||
|
"""Etudids des étudiants diplômés"""
|
||||||
|
|
||||||
|
# Les RCS de l'aggrégat (SemX ou RCSemX)
|
||||||
|
self.rcss: dict[(str, int), pe_rcs.RCS] = {}
|
||||||
|
"""Ensemble des SemX ou des RCSemX associés à l'aggrégat"""
|
||||||
|
for (nom, fid), rcs in rcss.items():
|
||||||
|
if nom == nom_rcs:
|
||||||
|
self.rcss[(nom, fid)] = rcss
|
||||||
|
|
||||||
|
# Les données tagguées
|
||||||
|
self.rcstags: dict[(str, int), pe_tabletags.TableTag] = {}
|
||||||
|
"""Ensemble des SxTag ou des RCSTags associés à l'aggrégat"""
|
||||||
|
for rcs_id in self.rcss:
|
||||||
|
self.rcstags[rcs_id] = rcstags[rcs_id]
|
||||||
|
|
||||||
|
# Les RCS (SemX ou RCSemX) suivis par les étudiants du jury,
|
||||||
|
# en ne gardant que ceux associés aux diplomés
|
||||||
|
self.suivis: dict[int, pe_rcs.RCS] = {}
|
||||||
|
"""Association entre chaque étudiant et le SxTag ou RCSTag à prendre
|
||||||
|
pour l'aggrégat"""
|
||||||
|
for etudid in self.diplomes_ids:
|
||||||
|
self.suivis[etudid] = suivis[etudid][nom_rcs]
|
||||||
|
|
||||||
|
# Les données sur les tags
|
||||||
|
self.tags_sorted = self._do_taglist()
|
||||||
|
"""Liste des tags (triés par ordre alphabétique)"""
|
||||||
|
aff = pe_affichage.repr_tags(self.tags_sorted)
|
||||||
|
pe_affichage.pe_print(f"--> Tags : {aff}")
|
||||||
|
|
||||||
|
# Les données sur les UEs (si SxTag) ou compétences (si RCSTag)
|
||||||
|
self.champs_sorted = self._do_ues_ou_competences_list()
|
||||||
|
"""Les champs (UEs ou compétences) de l'interclassement"""
|
||||||
|
if self.type == pe_moytag.CODE_MOY_UE:
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"--> UEs : {pe_affichage.aff_UEs(self.champs_sorted)}"
|
||||||
|
)
|
||||||
|
else:
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"--> Compétences : {pe_affichage.aff_competences(self.champs_sorted)}"
|
||||||
|
)
|
||||||
|
|
||||||
|
# Etudids triés
|
||||||
|
self.etudids_sorted = sorted(list(self.diplomes_ids))
|
||||||
|
|
||||||
|
self.nom = self.get_repr()
|
||||||
|
"""Représentation textuelle de l'interclassement"""
|
||||||
|
|
||||||
|
# Synthétise les moyennes/classements par tag
|
||||||
|
self.moyennes_tags: dict[str, pe_moytag.MoyennesTag] = {}
|
||||||
|
for tag in self.tags_sorted:
|
||||||
|
# Les moyennes tous modules confondus
|
||||||
|
notes_gen = self.compute_notes_matrice(tag)
|
||||||
|
|
||||||
|
# Les coefficients de la moyenne générale
|
||||||
|
coeffs = self.compute_coeffs_matrice(tag)
|
||||||
|
aff = pe_affichage.repr_profil_coeffs(coeffs, with_index=True)
|
||||||
|
pe_affichage.pe_print(f"--> Moyenne 👜{tag} avec coeffs: {aff} ")
|
||||||
|
|
||||||
|
self.moyennes_tags[tag] = pe_moytag.MoyennesTag(
|
||||||
|
tag,
|
||||||
|
self.type,
|
||||||
|
notes_gen,
|
||||||
|
coeffs, # limite les moyennes aux étudiants de la promo
|
||||||
|
)
|
||||||
|
|
||||||
|
def get_repr(self) -> str:
|
||||||
|
"""Une représentation textuelle"""
|
||||||
|
return f"{self.nom_rcs} par {self.type}"
|
||||||
|
|
||||||
|
def _do_taglist(self):
|
||||||
|
"""Synthétise les tags à partir des TableTags (SXTag ou RCSTag)
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Une liste de tags triés par ordre alphabétique
|
||||||
|
"""
|
||||||
|
tags = []
|
||||||
|
for rcstag in self.rcstags.values():
|
||||||
|
tags.extend(rcstag.tags_sorted)
|
||||||
|
return sorted(set(tags))
|
||||||
|
|
||||||
|
def compute_notes_matrice(self, tag) -> pd.DataFrame:
|
||||||
|
"""Construit la matrice de notes (etudids x champs) en
|
||||||
|
reportant les moyennes obtenues par les étudiants
|
||||||
|
aux semestres de l'aggrégat pour le tag visé.
|
||||||
|
|
||||||
|
Les champs peuvent être des acronymes d'UEs ou des compétences.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag visé
|
||||||
|
Return:
|
||||||
|
Le dataFrame (etudids x champs)
|
||||||
|
reportant les moyennes des étudiants aux champs
|
||||||
|
"""
|
||||||
|
# etudids_sorted: Les etudids des étudiants (diplômés) triés
|
||||||
|
# champs_sorted: Les champs (UE ou compétences) à faire apparaitre dans la matrice
|
||||||
|
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
df = pd.DataFrame(np.nan, index=self.etudids_sorted, columns=self.champs_sorted)
|
||||||
|
|
||||||
|
for rcstag in self.rcstags.values():
|
||||||
|
# Charge les moyennes au tag d'un RCStag
|
||||||
|
if tag in rcstag.moyennes_tags:
|
||||||
|
moytag = rcstag.moyennes_tags[tag]
|
||||||
|
|
||||||
|
notes = moytag.matrice_notes_gen # dataframe etudids x ues
|
||||||
|
|
||||||
|
# Etudiants/Champs communs entre le RCSTag et les données interclassées
|
||||||
|
(
|
||||||
|
etudids_communs,
|
||||||
|
champs_communs,
|
||||||
|
) = pe_comp.find_index_and_columns_communs(df, notes)
|
||||||
|
|
||||||
|
# Injecte les notes par tag
|
||||||
|
df.loc[etudids_communs, champs_communs] = notes.loc[
|
||||||
|
etudids_communs, champs_communs
|
||||||
|
]
|
||||||
|
|
||||||
|
return df
|
||||||
|
|
||||||
|
def compute_coeffs_matrice(self, tag) -> pd.DataFrame:
|
||||||
|
"""Idem que compute_notes_matrices mais pour les coeffs
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag visé
|
||||||
|
Return:
|
||||||
|
Le dataFrame (etudids x champs)
|
||||||
|
reportant les moyennes des étudiants aux champs
|
||||||
|
"""
|
||||||
|
# etudids_sorted: Les etudids des étudiants (diplômés) triés
|
||||||
|
# champs_sorted: Les champs (UE ou compétences) à faire apparaitre dans la matrice
|
||||||
|
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
df = pd.DataFrame(np.nan, index=self.etudids_sorted, columns=self.champs_sorted)
|
||||||
|
|
||||||
|
for rcstag in self.rcstags.values():
|
||||||
|
if tag in rcstag.moyennes_tags:
|
||||||
|
# Charge les coeffs au tag d'un RCStag
|
||||||
|
coeffs: pd.DataFrame = rcstag.moyennes_tags[tag].matrice_coeffs_moy_gen
|
||||||
|
|
||||||
|
# Etudiants/Champs communs entre le RCSTag et les données interclassées
|
||||||
|
(
|
||||||
|
etudids_communs,
|
||||||
|
champs_communs,
|
||||||
|
) = pe_comp.find_index_and_columns_communs(df, coeffs)
|
||||||
|
|
||||||
|
# Injecte les coeffs par tag
|
||||||
|
df.loc[etudids_communs, champs_communs] = coeffs.loc[
|
||||||
|
etudids_communs, champs_communs
|
||||||
|
]
|
||||||
|
|
||||||
|
return df
|
||||||
|
|
||||||
|
def _do_ues_ou_competences_list(self) -> list[str]:
|
||||||
|
"""Synthétise les champs (UEs ou compétences) sur lesquels
|
||||||
|
sont calculés les moyennes.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Un dictionnaire {'acronyme_ue' : 'compétences'}
|
||||||
|
"""
|
||||||
|
dict_champs = []
|
||||||
|
for rcstag in self.rcstags.values():
|
||||||
|
if isinstance(rcstag, pe_sxtag.SxTag):
|
||||||
|
champs = rcstag.acronymes_sorted
|
||||||
|
else: # pe_rcstag.RCSTag
|
||||||
|
champs = rcstag.competences_sorted
|
||||||
|
dict_champs.extend(champs)
|
||||||
|
return sorted(set(dict_champs))
|
||||||
|
|
||||||
|
def has_tags(self):
|
||||||
|
"""Indique si l'interclassement a des tags (cas d'un
|
||||||
|
interclassement sur un S5 qui n'a pas eu lieu)
|
||||||
|
"""
|
||||||
|
return len(self.tags_sorted) > 0
|
||||||
|
|
||||||
|
def _un_rcstag_significatif(self, rcsstags: dict[(str, int):pe_tabletags]):
|
||||||
|
"""Renvoie un rcstag significatif (ayant des tags et des notes aux tags)
|
||||||
|
parmi le dictionnaire de rcsstags"""
|
||||||
|
for rcstag_id, rcstag in rcsstags.items():
|
||||||
|
moystags: pe_moytag.MoyennesTag = rcstag.moyennes_tags
|
||||||
|
for tag, moystag in moystags.items():
|
||||||
|
tags_tries = moystag.get_all_significant_tags()
|
||||||
|
if tags_tries:
|
||||||
|
return moystag
|
||||||
|
return None
|
||||||
|
|
||||||
|
def compute_df_synthese_moyennes_tag(
|
||||||
|
self, tag, aggregat=None, type_colonnes=False, options={"min_max_moy": True}
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Construit le dataframe retraçant pour les données des moyennes
|
||||||
|
pour affichage dans la synthèse du jury PE. (cf. to_df())
|
||||||
|
|
||||||
|
Args:
|
||||||
|
etudids_sorted: Les etudids des étudiants (diplômés) triés
|
||||||
|
champs_sorted: Les champs (UE ou compétences) à faire apparaitre dans la matrice
|
||||||
|
Return:
|
||||||
|
Le dataFrame (etudids x champs)
|
||||||
|
reportant les moyennes des étudiants aux champs
|
||||||
|
"""
|
||||||
|
if aggregat:
|
||||||
|
assert (
|
||||||
|
aggregat == self.nom_rcs
|
||||||
|
), "L'interclassement ciblé ne correspond pas à l'aggrégat visé"
|
||||||
|
|
||||||
|
etudids_sorted = sorted(list(self.diplomes_ids))
|
||||||
|
|
||||||
|
if not self.rcstags:
|
||||||
|
return None
|
||||||
|
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
initialisation = False
|
||||||
|
df = pd.DataFrame()
|
||||||
|
|
||||||
|
# Pour chaque rcs (suivi) associe la liste des etudids l'ayant suivi
|
||||||
|
asso_rcs_etudids = {}
|
||||||
|
for etudid in etudids_sorted:
|
||||||
|
rcs = self.suivis[etudid]
|
||||||
|
if rcs:
|
||||||
|
if rcs.rcs_id not in asso_rcs_etudids:
|
||||||
|
asso_rcs_etudids[rcs.rcs_id] = []
|
||||||
|
asso_rcs_etudids[rcs.rcs_id].append(etudid)
|
||||||
|
|
||||||
|
for rcs_id, etudids in asso_rcs_etudids.items():
|
||||||
|
# Charge ses moyennes au RCSTag suivi
|
||||||
|
rcstag = self.rcstags[rcs_id] # Le SxTag ou RCSTag
|
||||||
|
# Charge la moyenne
|
||||||
|
if tag in rcstag.moyennes_tags:
|
||||||
|
moytag: pd.DataFrame = rcstag.moyennes_tags[tag]
|
||||||
|
df_moytag = moytag.to_df(
|
||||||
|
aggregat=aggregat, cohorte="Groupe", options=options
|
||||||
|
)
|
||||||
|
|
||||||
|
# Modif les colonnes au regard du 1er df_moytag significatif lu
|
||||||
|
if not initialisation:
|
||||||
|
df = pd.DataFrame(
|
||||||
|
np.nan, index=etudids_sorted, columns=df_moytag.columns
|
||||||
|
)
|
||||||
|
colonnes = list(df_moytag.columns)
|
||||||
|
for col in colonnes:
|
||||||
|
if col.endswith("rang"):
|
||||||
|
df[col] = df[col].astype(str)
|
||||||
|
initialisation = True
|
||||||
|
|
||||||
|
# Injecte les notes des étudiants
|
||||||
|
df.loc[etudids, :] = df_moytag.loc[etudids, :]
|
||||||
|
|
||||||
|
return df
|
128
app/pe/moys/pe_moy.py
Normal file
128
app/pe/moys/pe_moy.py
Normal file
|
@ -0,0 +1,128 @@
|
||||||
|
import numpy as np
|
||||||
|
import pandas as pd
|
||||||
|
|
||||||
|
from app.comp.moy_sem import comp_ranks_series
|
||||||
|
from app.pe import pe_affichage
|
||||||
|
|
||||||
|
|
||||||
|
class Moyenne:
|
||||||
|
COLONNES = [
|
||||||
|
"note",
|
||||||
|
"classement",
|
||||||
|
"rang",
|
||||||
|
"min",
|
||||||
|
"max",
|
||||||
|
"moy",
|
||||||
|
"nb_etuds",
|
||||||
|
"nb_inscrits",
|
||||||
|
]
|
||||||
|
"""Colonnes du df"""
|
||||||
|
|
||||||
|
@classmethod
|
||||||
|
def get_colonnes_synthese(cls, with_min_max_moy):
|
||||||
|
if with_min_max_moy:
|
||||||
|
return ["note", "rang", "min", "max", "moy"]
|
||||||
|
else:
|
||||||
|
return ["note", "rang"]
|
||||||
|
|
||||||
|
def __init__(self, notes: pd.Series):
|
||||||
|
"""Classe centralisant la synthèse des moyennes/classements d'une série
|
||||||
|
de notes :
|
||||||
|
|
||||||
|
* des "notes" : la Serie pandas des notes (float),
|
||||||
|
* des "classements" : la Serie pandas des classements (float),
|
||||||
|
* des "min" : la note minimum,
|
||||||
|
* des "max" : la note maximum,
|
||||||
|
* des "moy" : la moyenne,
|
||||||
|
* des "nb_inscrits" : le nombre d'étudiants ayant une note,
|
||||||
|
"""
|
||||||
|
self.notes = notes
|
||||||
|
"""Les notes"""
|
||||||
|
self.etudids = list(notes.index) # calcul à venir
|
||||||
|
"""Les id des étudiants"""
|
||||||
|
self.inscrits_ids = notes[notes.notnull()].index.to_list()
|
||||||
|
"""Les id des étudiants dont la note est non nulle"""
|
||||||
|
self.df: pd.DataFrame = self.comp_moy_et_stat(self.notes)
|
||||||
|
"""Le dataframe retraçant les moyennes/classements/statistiques"""
|
||||||
|
self.synthese = self.to_dict()
|
||||||
|
"""La synthèse (dictionnaire) des notes/classements/statistiques"""
|
||||||
|
|
||||||
|
def comp_moy_et_stat(self, notes: pd.Series) -> dict:
|
||||||
|
"""Calcule et structure les données nécessaires au PE pour une série
|
||||||
|
de notes (pouvant être une moyenne d'un tag à une UE ou une moyenne générale
|
||||||
|
d'un tag) dans un dictionnaire spécifique.
|
||||||
|
|
||||||
|
Partant des notes, sont calculés les classements (en ne tenant compte
|
||||||
|
que des notes non nulles).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
notes: Une série de notes (avec des éventuels NaN)
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Un dictionnaire stockant les notes, les classements, le min,
|
||||||
|
le max, la moyenne, le nb de notes (donc d'inscrits)
|
||||||
|
"""
|
||||||
|
df = pd.DataFrame(
|
||||||
|
np.nan,
|
||||||
|
index=self.etudids,
|
||||||
|
columns=Moyenne.COLONNES,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Supprime d'éventuelles chaines de caractères dans les notes
|
||||||
|
notes = pd.to_numeric(notes, errors="coerce")
|
||||||
|
df["note"] = notes
|
||||||
|
|
||||||
|
# Les nb d'étudiants & nb d'inscrits
|
||||||
|
df["nb_etuds"] = len(self.etudids)
|
||||||
|
df["nb_etuds"] = df["nb_etuds"].astype(int)
|
||||||
|
|
||||||
|
# Les étudiants dont la note n'est pas nulle
|
||||||
|
inscrits_ids = notes[notes.notnull()].index.to_list()
|
||||||
|
df.loc[inscrits_ids, "nb_inscrits"] = len(inscrits_ids)
|
||||||
|
# df["nb_inscrits"] = df["nb_inscrits"].astype(int)
|
||||||
|
|
||||||
|
# Le classement des inscrits
|
||||||
|
notes_non_nulles = notes[inscrits_ids]
|
||||||
|
(class_str, class_int) = comp_ranks_series(notes_non_nulles)
|
||||||
|
df.loc[inscrits_ids, "classement"] = class_int
|
||||||
|
# df["classement"] = df["classement"].astype(int)
|
||||||
|
|
||||||
|
# Le rang (classement/nb_inscrit)
|
||||||
|
df["rang"] = df["rang"].astype(str)
|
||||||
|
df.loc[inscrits_ids, "rang"] = (
|
||||||
|
df.loc[inscrits_ids, "classement"].astype(int).astype(str)
|
||||||
|
+ "/"
|
||||||
|
+ df.loc[inscrits_ids, "nb_inscrits"].astype(int).astype(str)
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les stat (des inscrits)
|
||||||
|
df.loc[inscrits_ids, "min"] = notes.min()
|
||||||
|
df.loc[inscrits_ids, "max"] = notes.max()
|
||||||
|
df.loc[inscrits_ids, "moy"] = notes.mean()
|
||||||
|
|
||||||
|
return df
|
||||||
|
|
||||||
|
def get_df_synthese(self, with_min_max_moy=None):
|
||||||
|
"""Renvoie le df de synthese limité aux colonnes de synthese"""
|
||||||
|
colonnes_synthese = Moyenne.get_colonnes_synthese(
|
||||||
|
with_min_max_moy=with_min_max_moy
|
||||||
|
)
|
||||||
|
df = self.df[colonnes_synthese].copy()
|
||||||
|
df["rang"] = df["rang"].replace("nan", "")
|
||||||
|
return df
|
||||||
|
|
||||||
|
def to_dict(self) -> dict:
|
||||||
|
"""Renvoie un dictionnaire de synthèse des moyennes/classements/statistiques générale (but)"""
|
||||||
|
synthese = {
|
||||||
|
"notes": self.df["note"],
|
||||||
|
"classements": self.df["classement"],
|
||||||
|
"min": self.df["min"].mean(),
|
||||||
|
"max": self.df["max"].mean(),
|
||||||
|
"moy": self.df["moy"].mean(),
|
||||||
|
"nb_inscrits": self.df["nb_inscrits"].mean(),
|
||||||
|
}
|
||||||
|
return synthese
|
||||||
|
|
||||||
|
def is_significatif(self) -> bool:
|
||||||
|
"""Indique si la moyenne est significative (c'est-à-dire à des notes)"""
|
||||||
|
return self.synthese["nb_inscrits"] > 0
|
169
app/pe/moys/pe_moytag.py
Normal file
169
app/pe/moys/pe_moytag.py
Normal file
|
@ -0,0 +1,169 @@
|
||||||
|
import numpy as np
|
||||||
|
import pandas as pd
|
||||||
|
|
||||||
|
from app import comp
|
||||||
|
from app.comp.moy_sem import comp_ranks_series
|
||||||
|
from app.pe.moys import pe_moy
|
||||||
|
from app.scodoc.sco_utils import ModuleType
|
||||||
|
|
||||||
|
CODE_MOY_UE = "UEs"
|
||||||
|
CODE_MOY_COMPETENCES = "Compétences"
|
||||||
|
CHAMP_GENERAL = "Général" # Nom du champ de la moyenne générale
|
||||||
|
|
||||||
|
|
||||||
|
class MoyennesTag:
|
||||||
|
def __init__(
|
||||||
|
self,
|
||||||
|
tag: str,
|
||||||
|
type_moyenne: str,
|
||||||
|
matrice_notes_gen: pd.DataFrame, # etudids x colonnes
|
||||||
|
matrice_coeffs: pd.DataFrame, # etudids x colonnes
|
||||||
|
):
|
||||||
|
"""Classe centralisant la synthèse des moyennes/classements d'une série
|
||||||
|
d'étudiants à un tag donné, en différenciant les notes
|
||||||
|
obtenues aux UE et au général (toutes UEs confondues)
|
||||||
|
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Un tag
|
||||||
|
matrice_notes_gen: Les moyennes (etudid x acronymes_ues ou etudid x compétences)
|
||||||
|
aux différentes UEs ou compétences
|
||||||
|
# notes_gen: Une série de notes (moyenne) sous forme d'un ``pd.Series`` (toutes UEs confondues)
|
||||||
|
"""
|
||||||
|
self.tag = tag
|
||||||
|
"""Le tag associé aux moyennes"""
|
||||||
|
|
||||||
|
self.type = type_moyenne
|
||||||
|
"""Le type de moyennes (par UEs ou par compétences)"""
|
||||||
|
|
||||||
|
# Les moyennes par UE/compétences (ressources/SAEs confondues)
|
||||||
|
self.matrice_notes_gen: pd.DataFrame = matrice_notes_gen
|
||||||
|
"""Les notes par UEs ou Compétences (DataFrame)"""
|
||||||
|
|
||||||
|
self.matrice_coeffs_moy_gen: pd.DataFrame = matrice_coeffs
|
||||||
|
"""Les coeffs à appliquer pour le calcul des moyennes générales
|
||||||
|
(toutes UE ou compétences confondues). NaN si étudiant non inscrit"""
|
||||||
|
|
||||||
|
self.moyennes_gen: dict[int, pd.DataFrame] = {}
|
||||||
|
"""Dataframes retraçant les moyennes/classements/statistiques des étudiants aux UEs"""
|
||||||
|
|
||||||
|
self.etudids = self.matrice_notes_gen.index
|
||||||
|
"""Les étudids renseignés dans les moyennes"""
|
||||||
|
|
||||||
|
self.champs = self.matrice_notes_gen.columns
|
||||||
|
"""Les champs (acronymes d'UE ou compétences) renseignés dans les moyennes"""
|
||||||
|
for col in self.champs: # if ue.type != UE_SPORT:
|
||||||
|
# Les moyennes tous modules confondus
|
||||||
|
notes = matrice_notes_gen[col]
|
||||||
|
self.moyennes_gen[col] = pe_moy.Moyenne(notes)
|
||||||
|
|
||||||
|
# Les moyennes générales (toutes UEs confondues)
|
||||||
|
self.notes_gen = pd.Series(np.nan, index=self.matrice_notes_gen.index)
|
||||||
|
if self.has_notes():
|
||||||
|
self.notes_gen = self.compute_moy_gen(
|
||||||
|
self.matrice_notes_gen, self.matrice_coeffs_moy_gen
|
||||||
|
)
|
||||||
|
self.moyenne_gen = pe_moy.Moyenne(self.notes_gen)
|
||||||
|
"""Dataframe retraçant les moyennes/classements/statistiques général (toutes UESs confondues et modules confondus)"""
|
||||||
|
|
||||||
|
def has_notes(self):
|
||||||
|
"""Détermine si les moyennes (aux UEs ou aux compétences)
|
||||||
|
ont des notes
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
True si la moytag a des notes, False sinon
|
||||||
|
"""
|
||||||
|
notes = self.matrice_notes_gen
|
||||||
|
|
||||||
|
nbre_nan = notes.isna().sum().sum()
|
||||||
|
nbre_notes_potentielles = len(notes.index) * len(notes.columns)
|
||||||
|
if nbre_nan == nbre_notes_potentielles:
|
||||||
|
return False
|
||||||
|
else:
|
||||||
|
return True
|
||||||
|
|
||||||
|
def compute_moy_gen(self, moys: pd.DataFrame, coeffs: pd.DataFrame) -> pd.Series:
|
||||||
|
"""Calcule la moyenne générale (toutes UE/compétences confondus)
|
||||||
|
pour le tag considéré, en pondérant les notes obtenues au UE
|
||||||
|
par les coeff (généralement les crédits ECTS).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
moys: Les moyennes etudids x acronymes_ues/compétences
|
||||||
|
coeff: Les coeff etudids x ueids/compétences
|
||||||
|
"""
|
||||||
|
|
||||||
|
# Calcule la moyenne générale dans le semestre (pondérée par le ECTS)
|
||||||
|
try:
|
||||||
|
moy_gen_tag = comp.moy_sem.compute_sem_moys_apc_using_ects(
|
||||||
|
moys,
|
||||||
|
coeffs.fillna(0.0),
|
||||||
|
# formation_id=self.formsemestre.formation_id,
|
||||||
|
skip_empty_ues=True,
|
||||||
|
)
|
||||||
|
except TypeError as e:
|
||||||
|
raise TypeError(
|
||||||
|
"Pb dans le calcul de la moyenne toutes UEs/compétences confondues"
|
||||||
|
)
|
||||||
|
|
||||||
|
return moy_gen_tag
|
||||||
|
|
||||||
|
def to_df(
|
||||||
|
self, aggregat=None, cohorte=None, options={"min_max_moy": True}
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Renvoie le df synthétisant l'ensemble des données
|
||||||
|
connues
|
||||||
|
Adapte les intitulés des colonnes aux données fournies
|
||||||
|
(nom d'aggrégat, type de cohorte).
|
||||||
|
"""
|
||||||
|
if "min_max_moy" not in options or options["min_max_moy"]:
|
||||||
|
with_min_max_moy = True
|
||||||
|
else:
|
||||||
|
with_min_max_moy = False
|
||||||
|
|
||||||
|
etudids_sorted = sorted(self.etudids)
|
||||||
|
|
||||||
|
df = pd.DataFrame(index=etudids_sorted)
|
||||||
|
|
||||||
|
# Ajout des notes pour tous les champs
|
||||||
|
champs = list(self.champs)
|
||||||
|
for champ in champs:
|
||||||
|
df_champ = self.moyennes_gen[champ].get_df_synthese(
|
||||||
|
with_min_max_moy=with_min_max_moy
|
||||||
|
) # le dataframe
|
||||||
|
# Renomme les colonnes
|
||||||
|
|
||||||
|
cols = [
|
||||||
|
get_colonne_df(aggregat, self.tag, champ, cohorte, critere)
|
||||||
|
for critere in pe_moy.Moyenne.get_colonnes_synthese(
|
||||||
|
with_min_max_moy=with_min_max_moy
|
||||||
|
)
|
||||||
|
]
|
||||||
|
df_champ.columns = cols
|
||||||
|
df = df.join(df_champ)
|
||||||
|
|
||||||
|
# Ajoute la moy générale
|
||||||
|
df_moy_gen = self.moyenne_gen.get_df_synthese(with_min_max_moy=with_min_max_moy)
|
||||||
|
cols = [
|
||||||
|
get_colonne_df(aggregat, self.tag, CHAMP_GENERAL, cohorte, critere)
|
||||||
|
for critere in pe_moy.Moyenne.get_colonnes_synthese(
|
||||||
|
with_min_max_moy=with_min_max_moy
|
||||||
|
)
|
||||||
|
]
|
||||||
|
df_moy_gen.columns = cols
|
||||||
|
df = df.join(df_moy_gen)
|
||||||
|
|
||||||
|
return df
|
||||||
|
|
||||||
|
|
||||||
|
def get_colonne_df(aggregat, tag, champ, cohorte, critere):
|
||||||
|
"""Renvoie le tuple (aggregat, tag, champ, cohorte, critere)
|
||||||
|
utilisé pour désigner les colonnes du df"""
|
||||||
|
liste_champs = []
|
||||||
|
if aggregat != None:
|
||||||
|
liste_champs += [aggregat]
|
||||||
|
|
||||||
|
liste_champs += [tag, champ]
|
||||||
|
if cohorte != None:
|
||||||
|
liste_champs += [cohorte]
|
||||||
|
liste_champs += [critere]
|
||||||
|
return "|".join(liste_champs)
|
466
app/pe/moys/pe_rcstag.py
Normal file
466
app/pe/moys/pe_rcstag.py
Normal file
|
@ -0,0 +1,466 @@
|
||||||
|
# -*- mode: python -*-
|
||||||
|
# -*- coding: utf-8 -*-
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# Gestion scolarite IUT
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on Fri Sep 9 09:15:05 2016
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
|
||||||
|
from app.models import FormSemestre
|
||||||
|
from app.pe import pe_affichage
|
||||||
|
import pandas as pd
|
||||||
|
import numpy as np
|
||||||
|
from app.pe.rcss import pe_rcs, pe_rcsemx
|
||||||
|
import app.pe.moys.pe_sxtag as pe_sxtag
|
||||||
|
import app.pe.pe_comp as pe_comp
|
||||||
|
from app.pe.moys import pe_tabletags, pe_moytag
|
||||||
|
from app.scodoc.sco_utils import ModuleType
|
||||||
|
|
||||||
|
|
||||||
|
class RCSemXTag(pe_tabletags.TableTag):
|
||||||
|
def __init__(
|
||||||
|
self,
|
||||||
|
rcsemx: pe_rcsemx.RCSemX,
|
||||||
|
sxstags: dict[(str, int) : pe_sxtag.SxTag],
|
||||||
|
semXs_suivis: dict[int, dict],
|
||||||
|
):
|
||||||
|
"""Calcule les moyennes par tag (orientées compétences)
|
||||||
|
d'un regroupement de SxTag
|
||||||
|
(RCRCF), pour extraire les classements par tag pour un
|
||||||
|
groupe d'étudiants donnés. Le groupe d'étudiants est formé par ceux ayant tous
|
||||||
|
participé au même semestre terminal.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
rcsemx: Le RCSemX (identifié par un nom et l'id de son semestre terminal)
|
||||||
|
sxstags: Les données sur les SemX taggués
|
||||||
|
semXs_suivis: Les données indiquant quels SXTags sont à prendre en compte
|
||||||
|
pour chaque étudiant
|
||||||
|
"""
|
||||||
|
pe_tabletags.TableTag.__init__(self)
|
||||||
|
|
||||||
|
self.rcs_id: tuple(str, int) = rcsemx.rcs_id
|
||||||
|
"""Identifiant du RCSemXTag (identique au RCSemX sur lequel il s'appuie)"""
|
||||||
|
|
||||||
|
self.rcsemx: pe_rcsemx.RCSemX = rcsemx
|
||||||
|
"""Le regroupement RCSemX associé au RCSemXTag"""
|
||||||
|
|
||||||
|
self.semXs_suivis = semXs_suivis
|
||||||
|
"""Les semXs suivis par les étudiants"""
|
||||||
|
|
||||||
|
self.nom = self.get_repr()
|
||||||
|
"""Représentation textuelle du RSCtag"""
|
||||||
|
|
||||||
|
# Les données du semestre final
|
||||||
|
self.formsemestre_final: FormSemestre = rcsemx.formsemestre_final
|
||||||
|
"""Le semestre final"""
|
||||||
|
self.fid_final: int = rcsemx.formsemestre_final.formsemestre_id
|
||||||
|
"""Le fid du semestre final"""
|
||||||
|
|
||||||
|
# Affichage pour debug
|
||||||
|
pe_affichage.pe_print(f"*** {self.get_repr(verbose=True)}")
|
||||||
|
|
||||||
|
# Les données aggrégés (RCRCF + SxTags)
|
||||||
|
self.semXs_aggreges: dict[(str, int) : pe_rcsemx.RCSemX] = rcsemx.semXs_aggreges
|
||||||
|
"""Les SemX aggrégés"""
|
||||||
|
self.sxstags_aggreges = {}
|
||||||
|
"""Les SxTag associés aux SemX aggrégés"""
|
||||||
|
try:
|
||||||
|
for rcf_id in self.semXs_aggreges:
|
||||||
|
self.sxstags_aggreges[rcf_id] = sxstags[rcf_id]
|
||||||
|
except:
|
||||||
|
raise ValueError("Semestres SxTag manquants")
|
||||||
|
self.sxtags_connus = sxstags # Tous les sxstags connus
|
||||||
|
|
||||||
|
# Les étudiants (etuds, états civils & etudis)
|
||||||
|
sems_dans_aggregat = rcsemx.aggregat
|
||||||
|
sxtag_final = self.sxstags_aggreges[(sems_dans_aggregat[-1], self.rcs_id[1])]
|
||||||
|
self.etuds = sxtag_final.etuds
|
||||||
|
"""Les étudiants (extraits du semestre final)"""
|
||||||
|
self.add_etuds(self.etuds)
|
||||||
|
self.etudids_sorted = sorted(self.etudids)
|
||||||
|
"""Les étudids triés"""
|
||||||
|
|
||||||
|
# Les compétences (extraites de tous les Sxtags)
|
||||||
|
self.acronymes_ues_to_competences = self._do_acronymes_to_competences()
|
||||||
|
"""L'association acronyme d'UEs -> compétence (extraites des SxTag aggrégés)"""
|
||||||
|
|
||||||
|
self.competences_sorted = sorted(
|
||||||
|
set(self.acronymes_ues_to_competences.values())
|
||||||
|
)
|
||||||
|
"""Compétences (triées par nom, extraites des SxTag aggrégés)"""
|
||||||
|
aff = pe_affichage.repr_comp_et_ues(self.acronymes_ues_to_competences)
|
||||||
|
pe_affichage.pe_print(f"--> Compétences : {', '.join(self.competences_sorted)}")
|
||||||
|
|
||||||
|
# Les tags
|
||||||
|
self.tags_sorted = self._do_taglist()
|
||||||
|
"""Tags extraits de tous les SxTag aggrégés"""
|
||||||
|
aff_tag = ["👜" + tag for tag in self.tags_sorted]
|
||||||
|
pe_affichage.pe_print(f"--> Tags : {', '.join(aff_tag)}")
|
||||||
|
|
||||||
|
# Les moyennes
|
||||||
|
self.moyennes_tags: dict[str, pe_moytag.MoyennesTag] = {}
|
||||||
|
|
||||||
|
"""Synthétise les moyennes/classements par tag (qu'ils soient personnalisé ou de compétences)"""
|
||||||
|
for tag in self.tags_sorted:
|
||||||
|
pe_affichage.pe_print(f"--> Moyennes du tag 👜{tag}")
|
||||||
|
|
||||||
|
# Traitement des inscriptions aux semX(tags)
|
||||||
|
# ******************************************
|
||||||
|
# Cube d'inscription (etudids_sorted x compétences_sorted x sxstags)
|
||||||
|
# indiquant quel sxtag est valide pour chaque étudiant
|
||||||
|
inscr_df, inscr_cube = self.compute_inscriptions_comps_cube(tag)
|
||||||
|
|
||||||
|
# Traitement des notes
|
||||||
|
# ********************
|
||||||
|
# Cube de notes (etudids_sorted x compétences_sorted x sxstags)
|
||||||
|
notes_df, notes_cube = self.compute_notes_comps_cube(tag)
|
||||||
|
# Calcule les moyennes sous forme d'un dataframe en les "aggrégant"
|
||||||
|
# compétence par compétence
|
||||||
|
moys_competences = self.compute_notes_competences(notes_cube, inscr_cube)
|
||||||
|
|
||||||
|
# Traitement des coeffs pour la moyenne générale
|
||||||
|
# ***********************************************
|
||||||
|
# Df des coeffs sur tous les SxTags aggrégés
|
||||||
|
coeffs_df, coeffs_cube = self.compute_coeffs_comps_cube(tag)
|
||||||
|
|
||||||
|
# Synthèse des coefficients à prendre en compte pour la moyenne générale
|
||||||
|
matrice_coeffs_moy_gen = self.compute_coeffs_competences(
|
||||||
|
coeffs_cube, inscr_cube, notes_cube
|
||||||
|
)
|
||||||
|
|
||||||
|
# Affichage des coeffs
|
||||||
|
aff = pe_affichage.repr_profil_coeffs(
|
||||||
|
matrice_coeffs_moy_gen, with_index=True
|
||||||
|
)
|
||||||
|
pe_affichage.pe_print(f" > Moyenne calculée avec pour coeffs : {aff}")
|
||||||
|
|
||||||
|
# Mémorise les moyennes et les coeff associés
|
||||||
|
self.moyennes_tags[tag] = pe_moytag.MoyennesTag(
|
||||||
|
tag,
|
||||||
|
pe_moytag.CODE_MOY_COMPETENCES,
|
||||||
|
moys_competences,
|
||||||
|
matrice_coeffs_moy_gen,
|
||||||
|
)
|
||||||
|
|
||||||
|
def __eq__(self, other):
|
||||||
|
"""Egalité de 2 RCS taggués sur la base de leur identifiant"""
|
||||||
|
return self.rcs_id == other.sxtag_id
|
||||||
|
|
||||||
|
def get_repr(self, verbose=True) -> str:
|
||||||
|
"""Renvoie une représentation textuelle (celle de la trajectoire sur laquelle elle
|
||||||
|
est basée)"""
|
||||||
|
if verbose:
|
||||||
|
return f"{self.__class__.__name__} basé sur " + self.rcsemx.get_repr(
|
||||||
|
verbose=verbose
|
||||||
|
)
|
||||||
|
else:
|
||||||
|
return f"{self.__class__.__name__} {self.rcs_id}"
|
||||||
|
|
||||||
|
def compute_notes_comps_cube(self, tag):
|
||||||
|
"""Pour un tag donné, construit le cube de notes (etudid x competences x SxTag)
|
||||||
|
nécessaire au calcul des moyennes,
|
||||||
|
en remplaçant les données d'UE (obtenus du SxTag) par les compétences
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag visé
|
||||||
|
"""
|
||||||
|
# etudids_sorted: list[int],
|
||||||
|
# competences_sorted: list[str],
|
||||||
|
# sxstags: dict[(str, int) : pe_sxtag.SxTag],
|
||||||
|
notes_dfs = {}
|
||||||
|
|
||||||
|
for sxtag_id, sxtag in self.sxstags_aggreges.items():
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
notes_df = pd.DataFrame(
|
||||||
|
np.nan, index=self.etudids_sorted, columns=self.competences_sorted
|
||||||
|
)
|
||||||
|
# Charge les notes du semestre tag (copie car changement de nom de colonnes à venir)
|
||||||
|
if tag in sxtag.moyennes_tags: # si le tag est présent dans le semestre
|
||||||
|
moys_tag = sxtag.moyennes_tags[tag]
|
||||||
|
|
||||||
|
notes = moys_tag.matrice_notes_gen.copy() # dataframe etudids x ues
|
||||||
|
|
||||||
|
# Traduction des acronymes d'UE en compétences
|
||||||
|
acronymes_ues_columns = notes.columns
|
||||||
|
acronymes_to_comps = [
|
||||||
|
self.acronymes_ues_to_competences[acro]
|
||||||
|
for acro in acronymes_ues_columns
|
||||||
|
]
|
||||||
|
notes.columns = acronymes_to_comps
|
||||||
|
|
||||||
|
# Les étudiants et les compétences communes
|
||||||
|
(
|
||||||
|
etudids_communs,
|
||||||
|
comp_communes,
|
||||||
|
) = pe_comp.find_index_and_columns_communs(notes_df, notes)
|
||||||
|
|
||||||
|
# Recopie des notes et des coeffs
|
||||||
|
notes_df.loc[etudids_communs, comp_communes] = notes.loc[
|
||||||
|
etudids_communs, comp_communes
|
||||||
|
]
|
||||||
|
|
||||||
|
# Supprime tout ce qui n'est pas numérique
|
||||||
|
# for col in notes_df.columns:
|
||||||
|
# notes_df[col] = pd.to_numeric(notes_df[col], errors="coerce")
|
||||||
|
|
||||||
|
# Stocke les dfs
|
||||||
|
notes_dfs[sxtag_id] = notes_df
|
||||||
|
|
||||||
|
"""Réunit les notes sous forme d'un cube etudids x competences x semestres"""
|
||||||
|
sxtag_x_etudids_x_comps = [
|
||||||
|
notes_dfs[sxtag_id] for sxtag_id in self.sxstags_aggreges
|
||||||
|
]
|
||||||
|
notes_etudids_x_comps_x_sxtag = np.stack(sxtag_x_etudids_x_comps, axis=-1)
|
||||||
|
|
||||||
|
return notes_dfs, notes_etudids_x_comps_x_sxtag
|
||||||
|
|
||||||
|
def compute_coeffs_comps_cube(self, tag):
|
||||||
|
"""Pour un tag donné, construit
|
||||||
|
le cube de coeffs (etudid x competences x SxTag) (traduisant les inscriptions
|
||||||
|
des étudiants aux UEs en fonction de leur parcours)
|
||||||
|
qui s'applique aux différents SxTag
|
||||||
|
en remplaçant les données d'UE (obtenus du SxTag) par les compétences
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag visé
|
||||||
|
"""
|
||||||
|
# etudids_sorted: list[int],
|
||||||
|
# competences_sorted: list[str],
|
||||||
|
# sxstags: dict[(str, int) : pe_sxtag.SxTag],
|
||||||
|
|
||||||
|
coeffs_dfs = {}
|
||||||
|
|
||||||
|
for sxtag_id, sxtag in self.sxstags_aggreges.items():
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
coeffs_df = pd.DataFrame(
|
||||||
|
np.nan, index=self.etudids_sorted, columns=self.competences_sorted
|
||||||
|
)
|
||||||
|
if tag in sxtag.moyennes_tags:
|
||||||
|
moys_tag = sxtag.moyennes_tags[tag]
|
||||||
|
|
||||||
|
# Charge les notes et les coeffs du semestre tag
|
||||||
|
coeffs = moys_tag.matrice_coeffs_moy_gen.copy() # les coeffs
|
||||||
|
|
||||||
|
# Traduction des acronymes d'UE en compétences
|
||||||
|
acronymes_ues_columns = coeffs.columns
|
||||||
|
acronymes_to_comps = [
|
||||||
|
self.acronymes_ues_to_competences[acro]
|
||||||
|
for acro in acronymes_ues_columns
|
||||||
|
]
|
||||||
|
coeffs.columns = acronymes_to_comps
|
||||||
|
|
||||||
|
# Les étudiants et les compétences communes
|
||||||
|
etudids_communs, comp_communes = pe_comp.find_index_and_columns_communs(
|
||||||
|
coeffs_df, coeffs
|
||||||
|
)
|
||||||
|
|
||||||
|
# Recopie des notes et des coeffs
|
||||||
|
coeffs_df.loc[etudids_communs, comp_communes] = coeffs.loc[
|
||||||
|
etudids_communs, comp_communes
|
||||||
|
]
|
||||||
|
|
||||||
|
# Stocke les dfs
|
||||||
|
coeffs_dfs[sxtag_id] = coeffs_df
|
||||||
|
|
||||||
|
"""Réunit les coeffs sous forme d'un cube etudids x competences x semestres"""
|
||||||
|
sxtag_x_etudids_x_comps = [
|
||||||
|
coeffs_dfs[sxtag_id] for sxtag_id in self.sxstags_aggreges
|
||||||
|
]
|
||||||
|
coeffs_etudids_x_comps_x_sxtag = np.stack(sxtag_x_etudids_x_comps, axis=-1)
|
||||||
|
|
||||||
|
return coeffs_dfs, coeffs_etudids_x_comps_x_sxtag
|
||||||
|
|
||||||
|
def compute_inscriptions_comps_cube(
|
||||||
|
self,
|
||||||
|
tag,
|
||||||
|
):
|
||||||
|
"""Pour un tag donné, construit
|
||||||
|
le cube etudid x competences x SxTag traduisant quels sxtags est à prendre
|
||||||
|
en compte pour chaque étudiant.
|
||||||
|
Contient des 0 et des 1 pour indiquer la prise en compte.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag visé
|
||||||
|
"""
|
||||||
|
# etudids_sorted: list[int],
|
||||||
|
# competences_sorted: list[str],
|
||||||
|
# sxstags: dict[(str, int) : pe_sxtag.SxTag],
|
||||||
|
# Initialisation
|
||||||
|
inscriptions_dfs = {}
|
||||||
|
|
||||||
|
for sxtag_id, sxtag in self.sxstags_aggreges.items():
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
inscription_df = pd.DataFrame(
|
||||||
|
0, index=self.etudids_sorted, columns=self.competences_sorted
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les étudiants dont les résultats au sxtag ont été calculés
|
||||||
|
etudids_sxtag = sxtag.etudids_sorted
|
||||||
|
|
||||||
|
# Les étudiants communs
|
||||||
|
etudids_communs = sorted(set(self.etudids_sorted) & set(etudids_sxtag))
|
||||||
|
|
||||||
|
# Acte l'inscription
|
||||||
|
inscription_df.loc[etudids_communs, :] = 1
|
||||||
|
|
||||||
|
# Stocke les dfs
|
||||||
|
inscriptions_dfs[sxtag_id] = inscription_df
|
||||||
|
|
||||||
|
"""Réunit les inscriptions sous forme d'un cube etudids x competences x semestres"""
|
||||||
|
sxtag_x_etudids_x_comps = [
|
||||||
|
inscriptions_dfs[sxtag_id] for sxtag_id in self.sxstags_aggreges
|
||||||
|
]
|
||||||
|
inscriptions_etudids_x_comps_x_sxtag = np.stack(
|
||||||
|
sxtag_x_etudids_x_comps, axis=-1
|
||||||
|
)
|
||||||
|
|
||||||
|
return inscriptions_dfs, inscriptions_etudids_x_comps_x_sxtag
|
||||||
|
|
||||||
|
def _do_taglist(self) -> list[str]:
|
||||||
|
"""Synthétise les tags à partir des Sxtags aggrégés.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Liste de tags triés par ordre alphabétique
|
||||||
|
"""
|
||||||
|
tags = []
|
||||||
|
for frmsem_id in self.sxstags_aggreges:
|
||||||
|
tags.extend(self.sxstags_aggreges[frmsem_id].tags_sorted)
|
||||||
|
return sorted(set(tags))
|
||||||
|
|
||||||
|
def _do_acronymes_to_competences(self) -> dict[str:str]:
|
||||||
|
"""Synthétise l'association complète {acronyme_ue: competences}
|
||||||
|
extraite de toutes les données/associations des SxTags
|
||||||
|
aggrégés.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Un dictionnaire {'acronyme_ue' : 'compétences'}
|
||||||
|
"""
|
||||||
|
dict_competences = {}
|
||||||
|
for sxtag_id, sxtag in self.sxstags_aggreges.items():
|
||||||
|
dict_competences |= sxtag.acronymes_ues_to_competences
|
||||||
|
return dict_competences
|
||||||
|
|
||||||
|
def compute_notes_competences(self, set_cube: np.array, inscriptions: np.array):
|
||||||
|
"""Calcule la moyenne par compétences (à un tag donné) sur plusieurs semestres (partant du set_cube).
|
||||||
|
|
||||||
|
La moyenne est un nombre (note/20), ou NaN si pas de notes disponibles
|
||||||
|
|
||||||
|
*Remarque* : Adaptation de moy_ue.compute_ue_moys_apc au cas des moyennes de tag
|
||||||
|
par aggrégat de plusieurs semestres.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
set_cube: notes moyennes aux compétences ndarray
|
||||||
|
(etuds x UEs|compétences x sxtags), des floats avec des NaN
|
||||||
|
inscriptions: inscrptions aux compétences ndarray
|
||||||
|
(etuds x UEs|compétences x sxtags), des 0 et des 1
|
||||||
|
Returns:
|
||||||
|
Un DataFrame avec pour columns les moyennes par tags,
|
||||||
|
et pour rows les etudid
|
||||||
|
"""
|
||||||
|
# etudids_sorted: liste des étudiants (dim. 0 du cube)
|
||||||
|
# competences_sorted: list (dim. 1 du cube)
|
||||||
|
nb_etuds, nb_comps, nb_semestres = set_cube.shape
|
||||||
|
# assert nb_etuds == len(etudids_sorted)
|
||||||
|
# assert nb_comps == len(competences_sorted)
|
||||||
|
|
||||||
|
# Applique le masque d'inscriptions
|
||||||
|
set_cube_significatif = set_cube * inscriptions
|
||||||
|
|
||||||
|
# Quelles entrées du cube contiennent des notes ?
|
||||||
|
mask = ~np.isnan(set_cube_significatif)
|
||||||
|
|
||||||
|
# Enlève les NaN du cube de notes pour les entrées manquantes
|
||||||
|
set_cube_no_nan = np.nan_to_num(set_cube_significatif, nan=0.0)
|
||||||
|
|
||||||
|
# Les moyennes par tag
|
||||||
|
with np.errstate(invalid="ignore"): # ignore les 0/0 (-> NaN)
|
||||||
|
etud_moy_tag = np.sum(set_cube_no_nan, axis=2) / np.sum(mask, axis=2)
|
||||||
|
|
||||||
|
# Le dataFrame des notes moyennes
|
||||||
|
etud_moy_tag_df = pd.DataFrame(
|
||||||
|
etud_moy_tag,
|
||||||
|
index=self.etudids_sorted, # les etudids
|
||||||
|
columns=self.competences_sorted, # les competences
|
||||||
|
)
|
||||||
|
etud_moy_tag_df.fillna(np.nan)
|
||||||
|
|
||||||
|
return etud_moy_tag_df
|
||||||
|
|
||||||
|
def compute_coeffs_competences(
|
||||||
|
self,
|
||||||
|
coeff_cube: np.array,
|
||||||
|
inscriptions: np.array,
|
||||||
|
set_cube: np.array,
|
||||||
|
):
|
||||||
|
"""Calcule les coeffs à utiliser pour la moyenne générale (toutes compétences
|
||||||
|
confondues), en fonction des inscriptions.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
coeffs_cube: coeffs impliqués dans la moyenne générale (semestres par semestres)
|
||||||
|
inscriptions: inscriptions aux UES|Compétences ndarray
|
||||||
|
(etuds x UEs|compétences x sxtags), des 0 ou des 1
|
||||||
|
set_cube: les notes
|
||||||
|
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Un DataFrame de coefficients (etudids_sorted x compétences_sorted)
|
||||||
|
"""
|
||||||
|
# etudids_sorted: liste des étudiants (dim. 0 du cube)
|
||||||
|
# competences_sorted: list (dim. 1 du cube)
|
||||||
|
nb_etuds, nb_comps, nb_semestres = inscriptions.shape
|
||||||
|
# assert nb_etuds == len(etudids_sorted)
|
||||||
|
# assert nb_comps == len(competences_sorted)
|
||||||
|
|
||||||
|
# Applique le masque des inscriptions aux coeffs et aux notes
|
||||||
|
coeffs_significatifs = coeff_cube * inscriptions
|
||||||
|
|
||||||
|
# Enlève les NaN du cube de notes pour les entrées manquantes
|
||||||
|
coeffs_cube_no_nan = np.nan_to_num(coeffs_significatifs, nan=0.0)
|
||||||
|
|
||||||
|
# Quelles entrées du cube contiennent des notes ?
|
||||||
|
mask = ~np.isnan(set_cube)
|
||||||
|
|
||||||
|
# Retire les coefficients associés à des données sans notes
|
||||||
|
coeffs_cube_no_nan = coeffs_cube_no_nan * mask
|
||||||
|
|
||||||
|
# Somme les coefficients (correspondant à des notes)
|
||||||
|
coeff_tag = np.sum(coeffs_cube_no_nan, axis=2)
|
||||||
|
|
||||||
|
# Le dataFrame des coeffs
|
||||||
|
coeffs_df = pd.DataFrame(
|
||||||
|
coeff_tag, index=self.etudids_sorted, columns=self.competences_sorted
|
||||||
|
)
|
||||||
|
# Remet à Nan les coeffs à 0
|
||||||
|
coeffs_df = coeffs_df.fillna(np.nan)
|
||||||
|
|
||||||
|
return coeffs_df
|
476
app/pe/moys/pe_ressemtag.py
Normal file
476
app/pe/moys/pe_ressemtag.py
Normal file
|
@ -0,0 +1,476 @@
|
||||||
|
# -*- pole: python -*-
|
||||||
|
# -*- coding: utf-8 -*-
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# Gestion scolarite IUT
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU Generfal Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on Fri Sep 9 09:15:05 2016
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
import pandas as pd
|
||||||
|
|
||||||
|
from app import ScoValueError
|
||||||
|
from app import comp
|
||||||
|
from app.comp.res_but import ResultatsSemestreBUT
|
||||||
|
from app.models import FormSemestre, UniteEns
|
||||||
|
import app.pe.pe_affichage as pe_affichage
|
||||||
|
import app.pe.pe_etudiant as pe_etudiant
|
||||||
|
from app.pe.moys import pe_tabletags, pe_moytag
|
||||||
|
from app.scodoc import sco_tag_module
|
||||||
|
from app.scodoc import codes_cursus as sco_codes
|
||||||
|
from app.scodoc.sco_utils import *
|
||||||
|
|
||||||
|
|
||||||
|
class ResSemBUTTag(ResultatsSemestreBUT, pe_tabletags.TableTag):
|
||||||
|
"""
|
||||||
|
Un ResSemBUTTag représente les résultats des étudiants à un semestre, en donnant
|
||||||
|
accès aux moyennes par tag.
|
||||||
|
Il s'appuie principalement sur un ResultatsSemestreBUT.
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(
|
||||||
|
self,
|
||||||
|
formsemestre: FormSemestre,
|
||||||
|
options={"moyennes_tags": True, "moyennes_ue_res_sae": False},
|
||||||
|
):
|
||||||
|
"""
|
||||||
|
Args:
|
||||||
|
formsemestre: le ``FormSemestre`` sur lequel il se base
|
||||||
|
options: Un dictionnaire d'options
|
||||||
|
"""
|
||||||
|
ResultatsSemestreBUT.__init__(self, formsemestre)
|
||||||
|
pe_tabletags.TableTag.__init__(self)
|
||||||
|
|
||||||
|
# Le nom du res_semestre taggué
|
||||||
|
self.nom = self.get_repr(verbose=True)
|
||||||
|
|
||||||
|
# Les étudiants (etuds, états civils & etudis) ajouté
|
||||||
|
self.add_etuds(self.etuds)
|
||||||
|
self.etudids_sorted = sorted(self.etudids)
|
||||||
|
"""Les etudids des étudiants du ResultatsSemestreBUT triés"""
|
||||||
|
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"*** ResSemBUTTag du {self.nom} => {len(self.etudids_sorted)} étudiants"
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les UEs (et les dispenses d'UE)
|
||||||
|
self.ues_standards: list[UniteEns] = [
|
||||||
|
ue for ue in self.ues if ue.type == sco_codes.UE_STANDARD
|
||||||
|
]
|
||||||
|
"""Liste des UEs standards du ResultatsSemestreBUT"""
|
||||||
|
|
||||||
|
# Les parcours des étudiants à ce semestre
|
||||||
|
self.parcours = []
|
||||||
|
"""Parcours auxquels sont inscrits les étudiants"""
|
||||||
|
for etudid in self.etudids_sorted:
|
||||||
|
parcour = self.formsemestre.etuds_inscriptions[etudid].parcour
|
||||||
|
if parcour:
|
||||||
|
self.parcours += [parcour.libelle]
|
||||||
|
else:
|
||||||
|
self.parcours += [None]
|
||||||
|
|
||||||
|
# Les UEs en fonction des parcours
|
||||||
|
self.ues_inscr_parcours_df = self.load_ues_inscr_parcours()
|
||||||
|
"""Inscription des étudiants aux UEs des parcours"""
|
||||||
|
|
||||||
|
# Les acronymes des UEs
|
||||||
|
self.ues_to_acronymes = {ue.id: ue.acronyme for ue in self.ues_standards}
|
||||||
|
self.acronymes_sorted = sorted(self.ues_to_acronymes.values())
|
||||||
|
"""Les acronymes de UE triés par ordre alphabétique"""
|
||||||
|
|
||||||
|
# Les compétences associées aux UEs (définies par les acronymes)
|
||||||
|
self.acronymes_ues_to_competences = {}
|
||||||
|
"""Association acronyme d'UEs -> compétence"""
|
||||||
|
for ue in self.ues_standards:
|
||||||
|
assert ue.niveau_competence, ScoValueError(
|
||||||
|
"Des UEs ne sont pas rattachées à des compétences"
|
||||||
|
)
|
||||||
|
nom = ue.niveau_competence.competence.titre
|
||||||
|
self.acronymes_ues_to_competences[ue.acronyme] = nom
|
||||||
|
self.competences_sorted = sorted(
|
||||||
|
list(set(self.acronymes_ues_to_competences.values()))
|
||||||
|
)
|
||||||
|
"""Compétences triées par nom"""
|
||||||
|
aff = pe_affichage.repr_asso_ue_comp(self.acronymes_ues_to_competences)
|
||||||
|
pe_affichage.pe_print(f"--> UEs/Compétences : {aff}")
|
||||||
|
|
||||||
|
# Les tags personnalisés et auto:
|
||||||
|
if "moyennes_tags" in options:
|
||||||
|
tags_dict = self._get_tags_dict(avec_moyennes_tags=options["moyennes_tags"])
|
||||||
|
else:
|
||||||
|
tags_dict = self._get_tags_dict()
|
||||||
|
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"""--> {pe_affichage.aff_tags_par_categories(tags_dict)}"""
|
||||||
|
)
|
||||||
|
self._check_tags(tags_dict)
|
||||||
|
|
||||||
|
# Les coefficients pour le calcul de la moyenne générale, donnés par
|
||||||
|
# acronymes d'UE
|
||||||
|
self.matrice_coeffs_moy_gen = self._get_matrice_coeffs(
|
||||||
|
self.ues_inscr_parcours_df, self.ues_standards
|
||||||
|
)
|
||||||
|
"""DataFrame indiquant les coeffs des UEs par ordre alphabétique d'acronyme"""
|
||||||
|
profils_aff = pe_affichage.repr_profil_coeffs(self.matrice_coeffs_moy_gen)
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"--> Moyenne générale calculée avec pour coeffs d'UEs : {profils_aff}"
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les capitalisations (mask etuids x acronyme_ue valant True si capitalisée, False sinon)
|
||||||
|
self.capitalisations = self._get_capitalisations(self.ues_standards)
|
||||||
|
"""DataFrame indiquant les UEs capitalisables d'un étudiant (etudids x )"""
|
||||||
|
|
||||||
|
# Calcul des moyennes & les classements de chaque étudiant à chaque tag
|
||||||
|
self.moyennes_tags = {}
|
||||||
|
"""Moyennes par tags (personnalisés ou 'but')"""
|
||||||
|
for tag in tags_dict["personnalises"]:
|
||||||
|
# pe_affichage.pe_print(f" -> Traitement du tag {tag}")
|
||||||
|
info_tag = tags_dict["personnalises"][tag]
|
||||||
|
# Les moyennes générales par UEs
|
||||||
|
moy_ues_tag = self.compute_moy_ues_tag(
|
||||||
|
self.ues_inscr_parcours_df, info_tag=info_tag, pole=None
|
||||||
|
)
|
||||||
|
# Mémorise les moyennes
|
||||||
|
self.moyennes_tags[tag] = pe_moytag.MoyennesTag(
|
||||||
|
tag,
|
||||||
|
pe_moytag.CODE_MOY_UE,
|
||||||
|
moy_ues_tag,
|
||||||
|
self.matrice_coeffs_moy_gen,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Ajoute les moyennes par UEs + la moyenne générale (but)
|
||||||
|
moy_gen = self.compute_moy_gen()
|
||||||
|
self.moyennes_tags["but"] = pe_moytag.MoyennesTag(
|
||||||
|
"but",
|
||||||
|
pe_moytag.CODE_MOY_UE,
|
||||||
|
moy_gen,
|
||||||
|
self.matrice_coeffs_moy_gen,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Ajoute la moyenne générale par ressources
|
||||||
|
if "moyennes_ue_res_sae" in options and options["moyennes_ue_res_sae"]:
|
||||||
|
moy_res_gen = self.compute_moy_ues_tag(
|
||||||
|
self.ues_inscr_parcours_df, info_tag=None, pole=ModuleType.RESSOURCE
|
||||||
|
)
|
||||||
|
self.moyennes_tags["ressources"] = pe_moytag.MoyennesTag(
|
||||||
|
"ressources",
|
||||||
|
pe_moytag.CODE_MOY_UE,
|
||||||
|
moy_res_gen,
|
||||||
|
self.matrice_coeffs_moy_gen,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Ajoute la moyenne générale par saes
|
||||||
|
if "moyennes_ue_res_sae" in options and options["moyennes_ue_res_sae"]:
|
||||||
|
moy_saes_gen = self.compute_moy_ues_tag(
|
||||||
|
self.ues_inscr_parcours_df, info_tag=None, pole=ModuleType.SAE
|
||||||
|
)
|
||||||
|
self.moyennes_tags["saes"] = pe_moytag.MoyennesTag(
|
||||||
|
"saes",
|
||||||
|
pe_moytag.CODE_MOY_UE,
|
||||||
|
moy_saes_gen,
|
||||||
|
self.matrice_coeffs_moy_gen,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Tous les tags
|
||||||
|
self.tags_sorted = self.get_all_significant_tags()
|
||||||
|
"""Tags (personnalisés+compétences) par ordre alphabétique"""
|
||||||
|
|
||||||
|
def get_repr(self, verbose=False) -> str:
|
||||||
|
"""Nom affiché pour le semestre taggué, de la forme (par ex.):
|
||||||
|
|
||||||
|
* S1#69 si verbose est False
|
||||||
|
* S1 FI 2023 si verbose est True
|
||||||
|
"""
|
||||||
|
if not verbose:
|
||||||
|
return f"{self.formsemestre}#{self.formsemestre.formsemestre_id}"
|
||||||
|
else:
|
||||||
|
return pe_etudiant.nom_semestre_etape(self.formsemestre, avec_fid=True)
|
||||||
|
|
||||||
|
def _get_matrice_coeffs(
|
||||||
|
self, ues_inscr_parcours_df: pd.DataFrame, ues_standards: list[UniteEns]
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Renvoie un dataFrame donnant les coefficients à appliquer aux UEs
|
||||||
|
dans le calcul de la moyenne générale (toutes UEs confondues).
|
||||||
|
Prend en compte l'inscription des étudiants aux UEs en fonction de leur parcours
|
||||||
|
(cf. ues_inscr_parcours_df).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
ues_inscr_parcours_df: Les inscriptions des étudiants aux UEs
|
||||||
|
ues_standards: Les UEs standards à prendre en compte
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Un dataFrame etudids x acronymes_UEs avec les coeffs des UEs
|
||||||
|
"""
|
||||||
|
matrice_coeffs_moy_gen = ues_inscr_parcours_df * [
|
||||||
|
ue.ects for ue in ues_standards # if ue.type != UE_SPORT <= déjà supprimé
|
||||||
|
]
|
||||||
|
matrice_coeffs_moy_gen.columns = [
|
||||||
|
self.ues_to_acronymes[ue.id] for ue in ues_standards
|
||||||
|
]
|
||||||
|
# Tri par etudids (dim 0) et par acronymes (dim 1)
|
||||||
|
matrice_coeffs_moy_gen = matrice_coeffs_moy_gen.sort_index()
|
||||||
|
matrice_coeffs_moy_gen = matrice_coeffs_moy_gen.sort_index(axis=1)
|
||||||
|
return matrice_coeffs_moy_gen
|
||||||
|
|
||||||
|
def _get_capitalisations(self, ues_standards) -> pd.DataFrame:
|
||||||
|
"""Renvoie un dataFrame résumant les UEs capitalisables par les
|
||||||
|
étudiants, d'après les décisions de jury (sous réserve qu'elles existent).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
ues_standards: Liste des UEs standards (notamment autres que le sport)
|
||||||
|
Returns:
|
||||||
|
Un dataFrame etudids x acronymes_UEs dont les valeurs sont ``True`` si l'UE
|
||||||
|
est capitalisable, ``False`` sinon
|
||||||
|
"""
|
||||||
|
capitalisations = pd.DataFrame(
|
||||||
|
False, index=self.etudids_sorted, columns=self.acronymes_sorted
|
||||||
|
)
|
||||||
|
self.get_formsemestre_validations() # charge les validations
|
||||||
|
res_jury = self.validations
|
||||||
|
if res_jury:
|
||||||
|
for etud in self.etuds:
|
||||||
|
etudid = etud.etudid
|
||||||
|
decisions = res_jury.decisions_jury_ues.get(etudid, {})
|
||||||
|
for ue in ues_standards:
|
||||||
|
if ue.id in decisions and decisions[ue.id]["code"] == sco_codes.ADM:
|
||||||
|
capitalisations.loc[etudid, ue.acronyme] = True
|
||||||
|
# Tri par etudis et par accronyme d'UE
|
||||||
|
capitalisations = capitalisations.sort_index()
|
||||||
|
capitalisations = capitalisations.sort_index(axis=1)
|
||||||
|
return capitalisations
|
||||||
|
|
||||||
|
def compute_moy_ues_tag(
|
||||||
|
self,
|
||||||
|
ues_inscr_parcours_df: pd.DataFrame,
|
||||||
|
info_tag: dict[int, dict] = None,
|
||||||
|
pole=None,
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Calcule la moyenne par UE des étudiants pour un tag donné,
|
||||||
|
en ayant connaissance des informations sur le tag et des inscriptions des étudiants aux différentes UEs.
|
||||||
|
|
||||||
|
info_tag détermine les modules pris en compte :
|
||||||
|
* si non `None`, seuls les modules rattachés au tag sont pris en compte
|
||||||
|
* si `None`, tous les modules (quelque soit leur rattachement au tag) sont pris
|
||||||
|
en compte (sert au calcul de la moyenne générale par ressource ou SAE)
|
||||||
|
|
||||||
|
ues_inscr_parcours_df détermine les UEs pour lesquels le calcul d'une moyenne à un sens.
|
||||||
|
|
||||||
|
`pole` détermine les modules pris en compte :
|
||||||
|
|
||||||
|
* si `pole` vaut `ModuleType.RESSOURCE`, seules les ressources sont prises
|
||||||
|
en compte (moyenne de ressources par UEs)
|
||||||
|
* si `pole` vaut `ModuleType.SAE`, seules les SAEs sont prises en compte
|
||||||
|
* si `pole` vaut `None` (ou toute autre valeur),
|
||||||
|
tous les modules sont pris en compte (moyenne d'UEs)
|
||||||
|
|
||||||
|
Les informations sur le tag sont un dictionnaire listant les modimpl_id rattachés au tag,
|
||||||
|
et pour chacun leur éventuel coefficient de **repondération**.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
ues_inscr_parcours_df: L'inscription aux UEs
|
||||||
|
Returns:
|
||||||
|
Le dataframe des moyennes du tag par UE
|
||||||
|
"""
|
||||||
|
modimpls_sorted = self.formsemestre.modimpls_sorted
|
||||||
|
|
||||||
|
# Adaptation du mask de calcul des moyennes au tag visé
|
||||||
|
modimpls_mask = []
|
||||||
|
for modimpl in modimpls_sorted:
|
||||||
|
module = modimpl.module # Le module
|
||||||
|
mask = module.ue.type == sco_codes.UE_STANDARD # Est-ce une UE stantard ?
|
||||||
|
if pole == ModuleType.RESSOURCE:
|
||||||
|
mask &= module.module_type == ModuleType.RESSOURCE
|
||||||
|
elif pole == ModuleType.SAE:
|
||||||
|
mask &= module.module_type == ModuleType.SAE
|
||||||
|
modimpls_mask += [mask]
|
||||||
|
|
||||||
|
# Prise en compte du tag
|
||||||
|
if info_tag:
|
||||||
|
# Désactive tous les modules qui ne sont pas pris en compte pour ce tag
|
||||||
|
for i, modimpl in enumerate(modimpls_sorted):
|
||||||
|
if modimpl.moduleimpl_id not in info_tag:
|
||||||
|
modimpls_mask[i] = False
|
||||||
|
|
||||||
|
# Applique la pondération des coefficients
|
||||||
|
modimpl_coefs_ponderes_df = self.modimpl_coefs_df.copy()
|
||||||
|
if info_tag:
|
||||||
|
for modimpl_id in info_tag:
|
||||||
|
ponderation = info_tag[modimpl_id]["ponderation"]
|
||||||
|
modimpl_coefs_ponderes_df[modimpl_id] *= ponderation
|
||||||
|
|
||||||
|
# Calcule les moyennes pour le tag visé dans chaque UE (dataframe etudid x ues)
|
||||||
|
moyennes_ues_tag = comp.moy_ue.compute_ue_moys_apc(
|
||||||
|
self.sem_cube,
|
||||||
|
self.etuds,
|
||||||
|
self.formsemestre.modimpls_sorted,
|
||||||
|
self.modimpl_inscr_df,
|
||||||
|
modimpl_coefs_ponderes_df,
|
||||||
|
modimpls_mask,
|
||||||
|
self.dispense_ues,
|
||||||
|
block=self.formsemestre.block_moyennes,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Ne conserve que les UEs standards
|
||||||
|
colonnes = [ue.id for ue in self.ues_standards]
|
||||||
|
moyennes_ues_tag = moyennes_ues_tag[colonnes]
|
||||||
|
|
||||||
|
# Applique le masque d'inscription aux UE pour ne conserver que les UE dans lequel l'étudiant est inscrit
|
||||||
|
moyennes_ues_tag = moyennes_ues_tag[colonnes] * ues_inscr_parcours_df[colonnes]
|
||||||
|
|
||||||
|
# Transforme les UEs en acronyme
|
||||||
|
acronymes = [self.ues_to_acronymes[ue.id] for ue in self.ues_standards]
|
||||||
|
moyennes_ues_tag.columns = acronymes
|
||||||
|
|
||||||
|
# Tri par etudids et par ordre alphabétique d'acronyme
|
||||||
|
moyennes_ues_tag = moyennes_ues_tag.sort_index()
|
||||||
|
moyennes_ues_tag = moyennes_ues_tag.sort_index(axis=1)
|
||||||
|
|
||||||
|
return moyennes_ues_tag
|
||||||
|
|
||||||
|
def compute_moy_gen(self):
|
||||||
|
"""Récupère les moyennes des UEs pour le calcul de la moyenne générale,
|
||||||
|
en associant à chaque UE.id son acronyme (toutes UEs confondues)
|
||||||
|
"""
|
||||||
|
df_ues = pd.DataFrame(
|
||||||
|
{ue.id: self.etud_moy_ue[ue.id] for ue in self.ues_standards},
|
||||||
|
index=self.etudids,
|
||||||
|
)
|
||||||
|
# Transforme les UEs en acronyme
|
||||||
|
colonnes = df_ues.columns
|
||||||
|
acronymes = [self.ues_to_acronymes[col] for col in colonnes]
|
||||||
|
df_ues.columns = acronymes
|
||||||
|
|
||||||
|
# Tri par ordre aphabétique de colonnes
|
||||||
|
df_ues.sort_index(axis=1)
|
||||||
|
|
||||||
|
return df_ues
|
||||||
|
|
||||||
|
def _get_tags_dict(self, avec_moyennes_tags=True):
|
||||||
|
"""Renvoie les tags personnalisés (déduits des modules du semestre)
|
||||||
|
et les tags automatiques ('but'), et toutes leurs informations,
|
||||||
|
dans un dictionnaire de la forme :
|
||||||
|
|
||||||
|
``{"personnalises": {tag: info_sur_le_tag},
|
||||||
|
"auto": {tag: {}}``
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Le dictionnaire structuré des tags ("personnalises" vs. "auto")
|
||||||
|
"""
|
||||||
|
dict_tags = {"personnalises": dict(), "auto": dict()}
|
||||||
|
|
||||||
|
if avec_moyennes_tags:
|
||||||
|
# Les tags perso (seulement si l'option d'utiliser les tags perso est choisie)
|
||||||
|
dict_tags["personnalises"] = get_synthese_tags_personnalises_semestre(
|
||||||
|
self.formsemestre
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les tags automatiques
|
||||||
|
# Déduit des compétences
|
||||||
|
# dict_ues_competences = get_noms_competences_from_ues(self.nt.formsemestre)
|
||||||
|
# noms_tags_comp = list(set(dict_ues_competences.values()))
|
||||||
|
|
||||||
|
# BUT
|
||||||
|
dict_tags["auto"] = {"but": {}, "ressources": {}, "saes": {}}
|
||||||
|
return dict_tags
|
||||||
|
|
||||||
|
def _check_tags(self, dict_tags):
|
||||||
|
"""Vérifie l'unicité des tags"""
|
||||||
|
noms_tags_perso = sorted(list(set(dict_tags["personnalises"].keys())))
|
||||||
|
noms_tags_auto = sorted(list(set(dict_tags["auto"].keys()))) # + noms_tags_comp
|
||||||
|
noms_tags = noms_tags_perso + noms_tags_auto
|
||||||
|
|
||||||
|
intersection = list(set(noms_tags_perso) & set(noms_tags_auto))
|
||||||
|
|
||||||
|
if intersection:
|
||||||
|
liste_intersection = "\n".join(
|
||||||
|
[f"<li><code>{tag}</code></li>" for tag in intersection]
|
||||||
|
)
|
||||||
|
s = "s" if len(intersection) > 1 else ""
|
||||||
|
message = f"""Erreur dans le module PE : Un des tags saisis dans votre
|
||||||
|
programme de formation fait parti des tags réservés. En particulier,
|
||||||
|
votre semestre <em>{self.formsemestre.titre_annee()}</em>
|
||||||
|
contient le{s} tag{s} réservé{s} suivant :
|
||||||
|
<ul>
|
||||||
|
{liste_intersection}
|
||||||
|
</ul>
|
||||||
|
Modifiez votre programme de formation pour le{s} supprimer.
|
||||||
|
Il{s} ser{'ont' if s else 'a'} automatiquement à vos documents de poursuites d'études.
|
||||||
|
"""
|
||||||
|
raise ScoValueError(message)
|
||||||
|
|
||||||
|
|
||||||
|
def get_synthese_tags_personnalises_semestre(formsemestre: FormSemestre):
|
||||||
|
"""Etant données les implémentations des modules du semestre (modimpls),
|
||||||
|
synthétise les tags renseignés dans le programme pédagogique &
|
||||||
|
associés aux modules du semestre,
|
||||||
|
en les associant aux modimpls qui les concernent (modimpl_id) et
|
||||||
|
au coeff de repondération fournie avec le tag (par défaut 1 si non indiquée)).
|
||||||
|
|
||||||
|
Le dictionnaire fournit est de la forme :
|
||||||
|
|
||||||
|
``{ tag : { modimplid: {"modimpl": ModImpl,
|
||||||
|
"ponderation": coeff_de_reponderation}
|
||||||
|
} }``
|
||||||
|
|
||||||
|
Args:
|
||||||
|
formsemestre: Le formsemestre à la base de la recherche des tags
|
||||||
|
|
||||||
|
Return:
|
||||||
|
Un dictionnaire décrivant les tags
|
||||||
|
"""
|
||||||
|
synthese_tags = {}
|
||||||
|
|
||||||
|
# Instance des modules du semestre
|
||||||
|
modimpls = formsemestre.modimpls_sorted
|
||||||
|
|
||||||
|
for modimpl in modimpls:
|
||||||
|
modimpl_id = modimpl.id
|
||||||
|
|
||||||
|
# Liste des tags pour le module concerné
|
||||||
|
tags = sco_tag_module.module_tag_list(modimpl.module.id)
|
||||||
|
|
||||||
|
# Traitement des tags recensés, chacun pouvant étant de la forme
|
||||||
|
# "mathématiques", "théorie", "pe:0", "maths:2"
|
||||||
|
for tag in tags:
|
||||||
|
# Extraction du nom du tag et du coeff de pondération
|
||||||
|
(tagname, ponderation) = sco_tag_module.split_tagname_coeff(tag)
|
||||||
|
|
||||||
|
# Ajout d'une clé pour le tag
|
||||||
|
if tagname not in synthese_tags:
|
||||||
|
synthese_tags[tagname] = {}
|
||||||
|
|
||||||
|
# Ajout du module (modimpl) au tagname considéré
|
||||||
|
synthese_tags[tagname][modimpl_id] = {
|
||||||
|
"modimpl": modimpl, # les données sur le module
|
||||||
|
"ponderation": ponderation, # la pondération demandée pour le tag sur le module
|
||||||
|
}
|
||||||
|
|
||||||
|
return synthese_tags
|
406
app/pe/moys/pe_sxtag.py
Normal file
406
app/pe/moys/pe_sxtag.py
Normal file
|
@ -0,0 +1,406 @@
|
||||||
|
# -*- mode: python -*-
|
||||||
|
# -*- coding: utf-8 -*-
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# Gestion scolarite IUT
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on Fri Sep 9 09:15:05 2016
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
|
||||||
|
from app.pe import pe_affichage, pe_comp
|
||||||
|
import app.pe.moys.pe_ressemtag as pe_ressemtag
|
||||||
|
import pandas as pd
|
||||||
|
import numpy as np
|
||||||
|
|
||||||
|
from app.pe.moys import pe_moytag, pe_tabletags
|
||||||
|
import app.pe.rcss.pe_trajectoires as pe_trajectoires
|
||||||
|
from app.scodoc.sco_utils import ModuleType
|
||||||
|
|
||||||
|
|
||||||
|
class SxTag(pe_tabletags.TableTag):
|
||||||
|
def __init__(
|
||||||
|
self,
|
||||||
|
sxtag_id: (str, int),
|
||||||
|
semx: pe_trajectoires.SemX,
|
||||||
|
ressembuttags: dict[int, pe_ressemtag.ResSemBUTTag],
|
||||||
|
):
|
||||||
|
"""Calcule les moyennes/classements par tag d'un semestre de type 'Sx'
|
||||||
|
(par ex. 'S1', 'S2', ...) représentés par acronyme d'UE.
|
||||||
|
|
||||||
|
Il représente :
|
||||||
|
|
||||||
|
* pour les étudiants *non redoublants* : moyennes/classements
|
||||||
|
du semestre suivi
|
||||||
|
* pour les étudiants *redoublants* : une fusion des moyennes/classements
|
||||||
|
dans les (2) 'Sx' qu'il a suivi, en exploitant les informations de capitalisation :
|
||||||
|
meilleure moyenne entre l'UE capitalisée et l'UE refaite (la notion de meilleure
|
||||||
|
s'appliquant à la moyenne d'UE)
|
||||||
|
|
||||||
|
Un SxTag (regroupant potentiellement plusieurs semestres) est identifié
|
||||||
|
par un tuple ``(Sx, fid)`` où :
|
||||||
|
|
||||||
|
* ``x`` est le rang (semestre_id) du semestre
|
||||||
|
* ``fid`` le formsemestre_id du semestre final (le plus récent) du regroupement.
|
||||||
|
|
||||||
|
Les **tags**, les **UE** et les inscriptions aux UEs (pour les étudiants)
|
||||||
|
considérés sont uniquement ceux du semestre final.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
sxtag_id: L'identifiant de SxTag
|
||||||
|
ressembuttags: Un dictionnaire de la forme `{fid: ResSemBUTTag(fid)}` donnant
|
||||||
|
les semestres à regrouper et les résultats/moyennes par tag des
|
||||||
|
semestres
|
||||||
|
"""
|
||||||
|
pe_tabletags.TableTag.__init__(self)
|
||||||
|
|
||||||
|
assert sxtag_id and len(sxtag_id) == 2 and sxtag_id[1] in ressembuttags
|
||||||
|
|
||||||
|
self.sxtag_id: (str, int) = sxtag_id
|
||||||
|
"""Identifiant du SxTag de la forme (nom_Sx, fid_semestre_final)"""
|
||||||
|
assert (
|
||||||
|
len(self.sxtag_id) == 2
|
||||||
|
and isinstance(self.sxtag_id[0], str)
|
||||||
|
and isinstance(self.sxtag_id[1], int)
|
||||||
|
), "Format de l'identifiant du SxTag non respecté"
|
||||||
|
|
||||||
|
self.agregat = sxtag_id[0]
|
||||||
|
"""Nom de l'aggrégat du RCS"""
|
||||||
|
|
||||||
|
self.semx = semx
|
||||||
|
"""Le SemX sur lequel il s'appuie"""
|
||||||
|
assert semx.rcs_id == sxtag_id, "Problème de correspondance SxTag/SemX"
|
||||||
|
|
||||||
|
# Les resultats des semestres taggués à prendre en compte dans le SemX
|
||||||
|
self.ressembuttags = {
|
||||||
|
fid: ressembuttags[fid] for fid in semx.semestres_aggreges
|
||||||
|
}
|
||||||
|
"""Les ResSemBUTTags à regrouper dans le SxTag"""
|
||||||
|
|
||||||
|
# Les données du semestre final
|
||||||
|
self.fid_final = sxtag_id[1]
|
||||||
|
self.ressembuttag_final = ressembuttags[self.fid_final]
|
||||||
|
"""Le ResSemBUTTag final"""
|
||||||
|
|
||||||
|
# Ajoute les etudids et les états civils
|
||||||
|
self.etuds = self.ressembuttag_final.etuds
|
||||||
|
"""Les étudiants (extraits du ReSemBUTTag final)"""
|
||||||
|
self.add_etuds(self.etuds)
|
||||||
|
self.etudids_sorted = sorted(self.etudids)
|
||||||
|
"""Les etudids triés"""
|
||||||
|
|
||||||
|
# Affichage
|
||||||
|
pe_affichage.pe_print(f"*** {self.get_repr(verbose=True)}")
|
||||||
|
|
||||||
|
# Les tags
|
||||||
|
self.tags_sorted = self.ressembuttag_final.tags_sorted
|
||||||
|
"""Tags (extraits du ReSemBUTTag final)"""
|
||||||
|
aff_tag = pe_affichage.repr_tags(self.tags_sorted)
|
||||||
|
pe_affichage.pe_print(f"--> Tags : {aff_tag}")
|
||||||
|
|
||||||
|
# Les UE données par leur acronyme
|
||||||
|
self.acronymes_sorted = self.ressembuttag_final.acronymes_sorted
|
||||||
|
"""Les acronymes des UEs (extraits du ResSemBUTTag final)"""
|
||||||
|
|
||||||
|
# L'association UE-compétences extraites du dernier semestre
|
||||||
|
self.acronymes_ues_to_competences = (
|
||||||
|
self.ressembuttag_final.acronymes_ues_to_competences
|
||||||
|
)
|
||||||
|
"""L'association acronyme d'UEs -> compétence"""
|
||||||
|
self.competences_sorted = sorted(self.acronymes_ues_to_competences.values())
|
||||||
|
"""Les compétences triées par nom"""
|
||||||
|
|
||||||
|
aff = pe_affichage.repr_asso_ue_comp(self.acronymes_ues_to_competences)
|
||||||
|
pe_affichage.pe_print(f"--> UEs/Compétences : {aff}")
|
||||||
|
|
||||||
|
# Les coeffs pour la moyenne générale (traduisant également l'inscription
|
||||||
|
# des étudiants aux UEs) (etudids_sorted x acronymes_ues_sorted)
|
||||||
|
self.matrice_coeffs_moy_gen = self.ressembuttag_final.matrice_coeffs_moy_gen
|
||||||
|
"""La matrice des coeffs pour la moyenne générale"""
|
||||||
|
aff = pe_affichage.repr_profil_coeffs(self.matrice_coeffs_moy_gen)
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f"--> Moyenne générale calculée avec pour coeffs d'UEs : {aff}"
|
||||||
|
)
|
||||||
|
|
||||||
|
# Masque des inscriptions et des capitalisations
|
||||||
|
self.masque_df = None
|
||||||
|
"""Le DataFrame traduisant les capitalisations des différents semestres"""
|
||||||
|
self.masque_df, masque_cube = compute_masques_capitalisation_cube(
|
||||||
|
self.etudids_sorted,
|
||||||
|
self.acronymes_sorted,
|
||||||
|
self.ressembuttags,
|
||||||
|
self.fid_final,
|
||||||
|
)
|
||||||
|
pe_affichage.aff_capitalisations(
|
||||||
|
self.etuds,
|
||||||
|
self.ressembuttags,
|
||||||
|
self.fid_final,
|
||||||
|
self.acronymes_sorted,
|
||||||
|
self.masque_df,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Les moyennes par tag
|
||||||
|
self.moyennes_tags: dict[str, pd.DataFrame] = {}
|
||||||
|
"""Moyennes aux UEs (identifiées par leur acronyme) des différents tags"""
|
||||||
|
|
||||||
|
if self.tags_sorted:
|
||||||
|
pe_affichage.pe_print("--> Calcul des moyennes par tags :")
|
||||||
|
|
||||||
|
for tag in self.tags_sorted:
|
||||||
|
pe_affichage.pe_print(f" > MoyTag 👜{tag}")
|
||||||
|
|
||||||
|
# Masque des inscriptions aux UEs (extraits de la matrice de coefficients)
|
||||||
|
inscr_mask: np.array = ~np.isnan(self.matrice_coeffs_moy_gen.to_numpy())
|
||||||
|
|
||||||
|
# Moyennes (tous modules confondus)
|
||||||
|
if not self.has_notes_tag(tag):
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f" --> Semestre (final) actuellement sans notes"
|
||||||
|
)
|
||||||
|
matrice_moys_ues = pd.DataFrame(
|
||||||
|
np.nan, index=self.etudids_sorted, columns=self.acronymes_sorted
|
||||||
|
)
|
||||||
|
else:
|
||||||
|
# Moyennes tous modules confondus
|
||||||
|
### Cube de note etudids x UEs tous modules confondus
|
||||||
|
notes_df_gen, notes_cube_gen = self.compute_notes_ues_cube(tag)
|
||||||
|
|
||||||
|
# DataFrame des moyennes (tous modules confondus)
|
||||||
|
matrice_moys_ues = self.compute_notes_ues(
|
||||||
|
notes_cube_gen, masque_cube, inscr_mask
|
||||||
|
)
|
||||||
|
|
||||||
|
# Mémorise les infos pour la moyenne au tag
|
||||||
|
self.moyennes_tags[tag] = pe_moytag.MoyennesTag(
|
||||||
|
tag,
|
||||||
|
pe_moytag.CODE_MOY_UE,
|
||||||
|
matrice_moys_ues,
|
||||||
|
self.matrice_coeffs_moy_gen,
|
||||||
|
)
|
||||||
|
|
||||||
|
# Affichage de debug
|
||||||
|
aff = pe_affichage.repr_profil_coeffs(
|
||||||
|
self.matrice_coeffs_moy_gen, with_index=True
|
||||||
|
)
|
||||||
|
pe_affichage.pe_print(f" > Moyenne générale calculée avec : {aff}")
|
||||||
|
|
||||||
|
def has_notes_tag(self, tag):
|
||||||
|
"""Détermine si le SxTag, pour un tag donné, est en cours d'évaluation.
|
||||||
|
Si oui, n'a pas (encore) de notes dans le resformsemestre final.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag visé
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
True si a des notes, False sinon
|
||||||
|
"""
|
||||||
|
moy_tag_dernier_sem = self.ressembuttag_final.moyennes_tags[tag]
|
||||||
|
return moy_tag_dernier_sem.has_notes()
|
||||||
|
|
||||||
|
def __eq__(self, other):
|
||||||
|
"""Egalité de 2 SxTag sur la base de leur identifiant"""
|
||||||
|
return self.sxtag_id == other.sxtag_id
|
||||||
|
|
||||||
|
def get_repr(self, verbose=False) -> str:
|
||||||
|
"""Renvoie une représentation textuelle (celle de la trajectoire sur laquelle elle
|
||||||
|
est basée)"""
|
||||||
|
if verbose:
|
||||||
|
return f"SXTag basé sur {self.semx.get_repr()}"
|
||||||
|
else:
|
||||||
|
# affichage = [str(fid) for fid in self.ressembuttags]
|
||||||
|
return f"SXTag {self.agregat}#{self.fid_final}"
|
||||||
|
|
||||||
|
def compute_notes_ues_cube(self, tag) -> (pd.DataFrame, np.array):
|
||||||
|
"""Construit le cube de notes des UEs (etudid x accronyme_ue x semestre_aggregé)
|
||||||
|
nécessaire au calcul des moyennes du tag pour le RCS Sx.
|
||||||
|
(Renvoie également le dataframe associé pour debug).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
tag: Le tag considéré (personalisé ou "but")
|
||||||
|
"""
|
||||||
|
# Index du cube (etudids -> dim 0, ues -> dim 1, semestres -> dim2)
|
||||||
|
# etudids_sorted = etudids_sorted
|
||||||
|
# acronymes_ues = sorted([ue.acronyme for ue in selMf.ues.values()])
|
||||||
|
semestres_id = list(self.ressembuttags.keys())
|
||||||
|
|
||||||
|
dfs = {}
|
||||||
|
|
||||||
|
for frmsem_id in semestres_id:
|
||||||
|
# Partant d'un dataframe vierge
|
||||||
|
df = pd.DataFrame(
|
||||||
|
np.nan, index=self.etudids_sorted, columns=self.acronymes_sorted
|
||||||
|
)
|
||||||
|
|
||||||
|
# Charge les notes du semestre tag
|
||||||
|
sem_tag = self.ressembuttags[frmsem_id]
|
||||||
|
moys_tag = sem_tag.moyennes_tags[tag]
|
||||||
|
notes = moys_tag.matrice_notes_gen # dataframe etudids x ues
|
||||||
|
|
||||||
|
# les étudiants et les acronymes communs
|
||||||
|
etudids_communs, acronymes_communs = pe_comp.find_index_and_columns_communs(
|
||||||
|
df, notes
|
||||||
|
)
|
||||||
|
|
||||||
|
# Recopie
|
||||||
|
df.loc[etudids_communs, acronymes_communs] = notes.loc[
|
||||||
|
etudids_communs, acronymes_communs
|
||||||
|
]
|
||||||
|
|
||||||
|
# Supprime tout ce qui n'est pas numérique
|
||||||
|
for col in df.columns:
|
||||||
|
df[col] = pd.to_numeric(df[col], errors="coerce")
|
||||||
|
|
||||||
|
# Stocke le df
|
||||||
|
dfs[frmsem_id] = df
|
||||||
|
|
||||||
|
"""Réunit les notes sous forme d'un cube etudids x ues x semestres"""
|
||||||
|
semestres_x_etudids_x_ues = [dfs[fid].values for fid in dfs]
|
||||||
|
etudids_x_ues_x_semestres = np.stack(semestres_x_etudids_x_ues, axis=-1)
|
||||||
|
return dfs, etudids_x_ues_x_semestres
|
||||||
|
|
||||||
|
def compute_notes_ues(
|
||||||
|
self,
|
||||||
|
set_cube: np.array,
|
||||||
|
masque_cube: np.array,
|
||||||
|
inscr_mask: np.array,
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Calcule la moyenne par UEs à un tag donné en prenant la note maximum (UE
|
||||||
|
par UE) obtenue par un étudiant à un semestre.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
set_cube: notes moyennes aux modules ndarray
|
||||||
|
(semestre_ids x etudids x UEs), des floats avec des NaN
|
||||||
|
masque_cube: masque indiquant si la note doit être prise en compte ndarray
|
||||||
|
(semestre_ids x etudids x UEs), des 1.0 ou des 0.0
|
||||||
|
inscr_mask: masque etudids x UE traduisant les inscriptions des
|
||||||
|
étudiants aux UE (du semestre terminal)
|
||||||
|
Returns:
|
||||||
|
Un DataFrame avec pour columns les moyennes par ues,
|
||||||
|
et pour rows les etudid
|
||||||
|
"""
|
||||||
|
# etudids_sorted: liste des étudiants (dim. 0 du cube) trié par etudid
|
||||||
|
# acronymes_sorted: liste des acronymes des ues (dim. 1 du cube) trié par acronyme
|
||||||
|
nb_etuds, nb_ues, nb_semestres = set_cube.shape
|
||||||
|
nb_etuds_mask, nb_ues_mask = inscr_mask.shape
|
||||||
|
# assert nb_etuds == len(self.etudids_sorted)
|
||||||
|
# assert nb_ues == len(self.acronymes_sorted)
|
||||||
|
# assert nb_etuds == nb_etuds_mask
|
||||||
|
# assert nb_ues == nb_ues_mask
|
||||||
|
|
||||||
|
# Entrées à garder dans le cube en fonction du masque d'inscription aux UEs du parcours
|
||||||
|
inscr_mask_3D = np.stack([inscr_mask] * nb_semestres, axis=-1)
|
||||||
|
set_cube = set_cube * inscr_mask_3D
|
||||||
|
|
||||||
|
# Entrées à garder en fonction des UEs capitalisées ou non
|
||||||
|
set_cube = set_cube * masque_cube
|
||||||
|
|
||||||
|
# Quelles entrées du cube contiennent des notes ?
|
||||||
|
mask = ~np.isnan(set_cube)
|
||||||
|
|
||||||
|
# Enlève les NaN du cube pour les entrées manquantes : NaN -> -1.0
|
||||||
|
set_cube_no_nan = np.nan_to_num(set_cube, nan=-1.0)
|
||||||
|
|
||||||
|
# Les moyennes par ues
|
||||||
|
# TODO: Pour l'instant un max sans prise en compte des UE capitalisées
|
||||||
|
etud_moy = np.max(set_cube_no_nan, axis=2)
|
||||||
|
|
||||||
|
# Fix les max non calculé -1 -> NaN
|
||||||
|
etud_moy[etud_moy < 0] = np.NaN
|
||||||
|
|
||||||
|
# Le dataFrame
|
||||||
|
etud_moy_tag_df = pd.DataFrame(
|
||||||
|
etud_moy,
|
||||||
|
index=self.etudids_sorted, # les etudids
|
||||||
|
columns=self.acronymes_sorted, # les acronymes d'UEs
|
||||||
|
)
|
||||||
|
|
||||||
|
etud_moy_tag_df = etud_moy_tag_df.fillna(np.nan)
|
||||||
|
|
||||||
|
return etud_moy_tag_df
|
||||||
|
|
||||||
|
|
||||||
|
def compute_masques_capitalisation_cube(
|
||||||
|
etudids_sorted: list[int],
|
||||||
|
acronymes_sorted: list[str],
|
||||||
|
ressembuttags: dict[int, pe_ressemtag.ResSemBUTTag],
|
||||||
|
formsemestre_id_final: int,
|
||||||
|
) -> (pd.DataFrame, np.array):
|
||||||
|
"""Construit le cube traduisant les masques des UEs à prendre en compte dans le calcul
|
||||||
|
des moyennes, en utilisant le dataFrame de capitalisations de chaque ResSemBUTTag
|
||||||
|
|
||||||
|
Ces masques contiennent : 1 si la note doit être prise en compte, 0 sinon
|
||||||
|
|
||||||
|
Le masque des UEs à prendre en compte correspondant au semestre final (identifié par
|
||||||
|
son formsemestre_id_final) est systématiquement à 1 (puisque les résultats
|
||||||
|
de ce semestre doivent systématiquement
|
||||||
|
être pris en compte notamment pour les étudiants non redoublant).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
etudids_sorted: La liste des etudids triés par ordre croissant (dim 0)
|
||||||
|
acronymes_sorted: La liste des acronymes de UEs triés par acronyme croissant (dim 1)
|
||||||
|
ressembuttags: Le dictionnaire des résultats de semestres BUT (tous tags confondus)
|
||||||
|
formsemestre_id_final: L'identifiant du formsemestre_id_final
|
||||||
|
"""
|
||||||
|
# Index du cube (etudids -> dim 0, ues -> dim 1, semestres -> dim2)
|
||||||
|
# etudids_sorted = etudids_sorted
|
||||||
|
# acronymes_ues = sorted([ue.acronyme for ue in selMf.ues.values()])
|
||||||
|
semestres_id = list(ressembuttags.keys())
|
||||||
|
|
||||||
|
dfs = {}
|
||||||
|
|
||||||
|
for frmsem_id in semestres_id:
|
||||||
|
# Partant d'un dataframe contenant des 1.0
|
||||||
|
if frmsem_id == formsemestre_id_final:
|
||||||
|
df = pd.DataFrame(1.0, index=etudids_sorted, columns=acronymes_sorted)
|
||||||
|
else: # semestres redoublés
|
||||||
|
df = pd.DataFrame(0.0, index=etudids_sorted, columns=acronymes_sorted)
|
||||||
|
|
||||||
|
# Traitement des capitalisations : remplace les infos de capitalisations par les coeff 1 ou 0
|
||||||
|
capitalisations = ressembuttags[frmsem_id].capitalisations
|
||||||
|
capitalisations = capitalisations.replace(True, 1.0).replace(False, 0.0)
|
||||||
|
|
||||||
|
# Met à 0 les coeffs des UEs non capitalisées pour les étudiants
|
||||||
|
# inscrits dans les 2 semestres: 1.0*False => 0.0
|
||||||
|
etudids_communs, acronymes_communs = pe_comp.find_index_and_columns_communs(
|
||||||
|
df, capitalisations
|
||||||
|
)
|
||||||
|
|
||||||
|
df.loc[etudids_communs, acronymes_communs] = capitalisations.loc[
|
||||||
|
etudids_communs, acronymes_communs
|
||||||
|
]
|
||||||
|
|
||||||
|
# Stocke le df
|
||||||
|
dfs[frmsem_id] = df
|
||||||
|
|
||||||
|
"""Réunit les notes sous forme d'un cube etudids x ues x semestres"""
|
||||||
|
semestres_x_etudids_x_ues = [dfs[fid].values for fid in dfs]
|
||||||
|
etudids_x_ues_x_semestres = np.stack(semestres_x_etudids_x_ues, axis=-1)
|
||||||
|
return dfs, etudids_x_ues_x_semestres
|
203
app/pe/moys/pe_tabletags.py
Normal file
203
app/pe/moys/pe_tabletags.py
Normal file
|
@ -0,0 +1,203 @@
|
||||||
|
# -*- pole: python -*-
|
||||||
|
# -*- coding: utf-8 -*-
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# Gestion scolarite IUT
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on Thu Sep 8 09:36:33 2016
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
|
||||||
|
import pandas as pd
|
||||||
|
|
||||||
|
from app.models import Identite
|
||||||
|
from app.pe.moys import pe_moytag
|
||||||
|
|
||||||
|
TAGS_RESERVES = ["but"]
|
||||||
|
|
||||||
|
CHAMPS_ADMINISTRATIFS = ["Civilité", "Nom", "Prénom"]
|
||||||
|
|
||||||
|
|
||||||
|
class TableTag(object):
|
||||||
|
def __init__(self):
|
||||||
|
"""Classe centralisant différentes méthodes communes aux
|
||||||
|
SemestreTag, TrajectoireTag, AggregatInterclassTag
|
||||||
|
"""
|
||||||
|
# Les étudiants
|
||||||
|
# self.etuds: list[Identite] = None # A venir
|
||||||
|
"""Les étudiants"""
|
||||||
|
# self.etudids: list[int] = {}
|
||||||
|
"""Les etudids"""
|
||||||
|
|
||||||
|
def add_etuds(self, etuds: list[Identite]):
|
||||||
|
"""Mémorise les informations sur les étudiants
|
||||||
|
|
||||||
|
Args:
|
||||||
|
etuds: la liste des identités de l'étudiant
|
||||||
|
"""
|
||||||
|
# self.etuds = etuds
|
||||||
|
self.etudids = list({etud.etudid for etud in etuds})
|
||||||
|
|
||||||
|
def get_all_significant_tags(self):
|
||||||
|
"""Liste des tags de la table, triée par ordre alphabétique,
|
||||||
|
extraite des clés du dictionnaire ``moyennes_tags``, en ne
|
||||||
|
considérant que les moyennes ayant des notes.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Liste de tags triés par ordre alphabétique
|
||||||
|
"""
|
||||||
|
tags = []
|
||||||
|
tag: str = ""
|
||||||
|
moytag: pe_moytag.MoyennesTag = None
|
||||||
|
for tag, moytag in self.moyennes_tags.items():
|
||||||
|
if moytag.has_notes():
|
||||||
|
tags.append(tag)
|
||||||
|
return sorted(tags)
|
||||||
|
|
||||||
|
def to_df(
|
||||||
|
self,
|
||||||
|
administratif=True,
|
||||||
|
aggregat=None,
|
||||||
|
tags_cibles=None,
|
||||||
|
cohorte=None,
|
||||||
|
options={"min_max_moy": True},
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Renvoie un dataframe listant toutes les données
|
||||||
|
des moyennes/classements/nb_inscrits/min/max/moy
|
||||||
|
des étudiants aux différents tags.
|
||||||
|
|
||||||
|
tags_cibles limitent le dataframe aux tags indiqués
|
||||||
|
type_colonnes indiquent si les colonnes doivent être passées en multiindex
|
||||||
|
|
||||||
|
Args:
|
||||||
|
administratif: Indique si les données administratives sont incluses
|
||||||
|
aggregat: l'aggrégat représenté
|
||||||
|
tags_cibles: la liste des tags ciblés
|
||||||
|
cohorte: la cohorte représentée
|
||||||
|
Returns:
|
||||||
|
Le dataframe complet de synthèse
|
||||||
|
"""
|
||||||
|
# Les tags visés
|
||||||
|
tags_tries = self.get_all_significant_tags()
|
||||||
|
if not tags_cibles:
|
||||||
|
tags_cibles = tags_tries
|
||||||
|
tags_cibles = sorted(tags_cibles)
|
||||||
|
|
||||||
|
# Les tags visés avec des notes
|
||||||
|
|
||||||
|
# Les étudiants visés
|
||||||
|
if administratif:
|
||||||
|
df = df_administratif(self.etuds, aggregat=aggregat, cohorte=cohorte)
|
||||||
|
else:
|
||||||
|
df = pd.DataFrame(index=self.etudids)
|
||||||
|
|
||||||
|
if not self.is_significatif():
|
||||||
|
return df
|
||||||
|
|
||||||
|
# Ajout des données par tags
|
||||||
|
for tag in tags_cibles:
|
||||||
|
if tag in self.moyennes_tags:
|
||||||
|
moy_tag_df = self.moyennes_tags[tag].to_df(
|
||||||
|
aggregat=aggregat, cohorte=cohorte, options=options
|
||||||
|
)
|
||||||
|
df = df.join(moy_tag_df)
|
||||||
|
|
||||||
|
# Tri par nom, prénom
|
||||||
|
if administratif:
|
||||||
|
colonnes_tries = [
|
||||||
|
_get_champ_administratif(champ, aggregat=aggregat, cohorte=cohorte)
|
||||||
|
for champ in CHAMPS_ADMINISTRATIFS[1:]
|
||||||
|
] # Nom + Prénom
|
||||||
|
df = df.sort_values(by=colonnes_tries)
|
||||||
|
return df
|
||||||
|
|
||||||
|
def has_etuds(self):
|
||||||
|
"""Indique si un tabletag contient des étudiants"""
|
||||||
|
return len(self.etuds) > 0
|
||||||
|
|
||||||
|
def is_significatif(self):
|
||||||
|
"""Indique si une tabletag a des données"""
|
||||||
|
# A des étudiants
|
||||||
|
if not self.etuds:
|
||||||
|
return False
|
||||||
|
# A des tags avec des notes
|
||||||
|
tags_tries = self.get_all_significant_tags()
|
||||||
|
if not tags_tries:
|
||||||
|
return False
|
||||||
|
return True
|
||||||
|
|
||||||
|
|
||||||
|
def _get_champ_administratif(champ, aggregat=None, cohorte=None):
|
||||||
|
"""Pour un champ donné, renvoie l'index (ou le multindex)
|
||||||
|
à intégrer au dataframe"""
|
||||||
|
liste = []
|
||||||
|
if aggregat != None:
|
||||||
|
liste += [aggregat]
|
||||||
|
liste += ["Administratif", "Identité"]
|
||||||
|
if cohorte != None:
|
||||||
|
liste += [champ]
|
||||||
|
liste += [champ]
|
||||||
|
return "|".join(liste)
|
||||||
|
|
||||||
|
|
||||||
|
def df_administratif(
|
||||||
|
etuds: list[Identite], aggregat=None, cohorte=None
|
||||||
|
) -> pd.DataFrame:
|
||||||
|
"""Renvoie un dataframe donnant les données administratives
|
||||||
|
des étudiants du TableTag
|
||||||
|
|
||||||
|
Args:
|
||||||
|
etuds: Identité des étudiants générant les données administratives
|
||||||
|
"""
|
||||||
|
identites = {etud.etudid: etud for etud in etuds}
|
||||||
|
|
||||||
|
donnees = {}
|
||||||
|
etud: Identite = None
|
||||||
|
for etudid, etud in identites.items():
|
||||||
|
data = {
|
||||||
|
CHAMPS_ADMINISTRATIFS[0]: etud.civilite_str,
|
||||||
|
CHAMPS_ADMINISTRATIFS[1]: etud.nom,
|
||||||
|
CHAMPS_ADMINISTRATIFS[2]: etud.prenom_str,
|
||||||
|
}
|
||||||
|
donnees[etudid] = {
|
||||||
|
_get_champ_administratif(champ, aggregat, cohorte): data[champ]
|
||||||
|
for champ in CHAMPS_ADMINISTRATIFS
|
||||||
|
}
|
||||||
|
|
||||||
|
colonnes = [
|
||||||
|
_get_champ_administratif(champ, aggregat, cohorte)
|
||||||
|
for champ in CHAMPS_ADMINISTRATIFS
|
||||||
|
]
|
||||||
|
|
||||||
|
df = pd.DataFrame.from_dict(donnees, orient="index", columns=colonnes)
|
||||||
|
df = df.sort_values(by=colonnes[1:])
|
||||||
|
return df
|
|
@ -8,6 +8,7 @@
|
||||||
|
|
||||||
from flask import g
|
from flask import g
|
||||||
from app import log
|
from app import log
|
||||||
|
from app.pe.rcss import pe_rcs
|
||||||
|
|
||||||
PE_DEBUG = False
|
PE_DEBUG = False
|
||||||
|
|
||||||
|
@ -20,17 +21,19 @@ def pe_start_log() -> list[str]:
|
||||||
return g.scodoc_pe_log
|
return g.scodoc_pe_log
|
||||||
|
|
||||||
|
|
||||||
def pe_print(*a):
|
def pe_print(*a, **cles):
|
||||||
"Log (or print in PE_DEBUG mode) and store in g"
|
"Log (or print in PE_DEBUG mode) and store in g"
|
||||||
lines = getattr(g, "scodoc_pe_log")
|
|
||||||
if lines is None:
|
|
||||||
lines = pe_start_log()
|
|
||||||
msg = " ".join(a)
|
|
||||||
lines.append(msg)
|
|
||||||
if PE_DEBUG:
|
if PE_DEBUG:
|
||||||
|
msg = " ".join(a)
|
||||||
print(msg)
|
print(msg)
|
||||||
else:
|
else:
|
||||||
log(msg)
|
lines = getattr(g, "scodoc_pe_log")
|
||||||
|
if lines is None:
|
||||||
|
lines = pe_start_log()
|
||||||
|
msg = " ".join(a)
|
||||||
|
lines.append(msg)
|
||||||
|
if "info" in cles:
|
||||||
|
log(msg)
|
||||||
|
|
||||||
|
|
||||||
def pe_get_log() -> str:
|
def pe_get_log() -> str:
|
||||||
|
@ -40,5 +43,192 @@ def pe_get_log() -> str:
|
||||||
|
|
||||||
# Affichage dans le tableur pe en cas d'absence de notes
|
# Affichage dans le tableur pe en cas d'absence de notes
|
||||||
SANS_NOTE = "-"
|
SANS_NOTE = "-"
|
||||||
NOM_STAT_GROUPE = "statistiques du groupe"
|
|
||||||
NOM_STAT_PROMO = "statistiques de la promo"
|
|
||||||
|
def repr_profil_coeffs(matrice_coeffs_moy_gen, with_index=False):
|
||||||
|
"""Affiche les différents types de coefficients (appelés profil)
|
||||||
|
d'une matrice_coeffs_moy_gen (pour debug)
|
||||||
|
"""
|
||||||
|
|
||||||
|
# Les profils des coeffs d'UE (pour debug)
|
||||||
|
profils = []
|
||||||
|
index_a_profils = {}
|
||||||
|
for i in matrice_coeffs_moy_gen.index:
|
||||||
|
val = matrice_coeffs_moy_gen.loc[i].fillna("-")
|
||||||
|
val = " | ".join([str(v) for v in val])
|
||||||
|
if val not in profils:
|
||||||
|
profils += [val]
|
||||||
|
index_a_profils[val] = [str(i)]
|
||||||
|
else:
|
||||||
|
index_a_profils[val] += [str(i)]
|
||||||
|
|
||||||
|
# L'affichage
|
||||||
|
if len(profils) > 1:
|
||||||
|
if with_index:
|
||||||
|
elmts = [
|
||||||
|
" " * 10
|
||||||
|
+ prof
|
||||||
|
+ " (par ex. "
|
||||||
|
+ ", ".join(index_a_profils[prof][:10])
|
||||||
|
+ ")"
|
||||||
|
for prof in profils
|
||||||
|
]
|
||||||
|
else:
|
||||||
|
elmts = [" " * 10 + prof for prof in profils]
|
||||||
|
profils_aff = "\n" + "\n".join(elmts)
|
||||||
|
else:
|
||||||
|
profils_aff = "\n".join(profils)
|
||||||
|
return profils_aff
|
||||||
|
|
||||||
|
|
||||||
|
def repr_asso_ue_comp(acronymes_ues_to_competences):
|
||||||
|
"""Représentation textuelle de l'association UE -> Compétences
|
||||||
|
fournies dans acronymes_ues_to_competences
|
||||||
|
"""
|
||||||
|
champs = acronymes_ues_to_competences.keys()
|
||||||
|
champs = sorted(champs)
|
||||||
|
aff_comp = []
|
||||||
|
for acro in champs:
|
||||||
|
aff_comp += [f"📍{acro} (∈ 💡{acronymes_ues_to_competences[acro]})"]
|
||||||
|
return ", ".join(aff_comp)
|
||||||
|
|
||||||
|
|
||||||
|
def aff_UEs(champs):
|
||||||
|
"""Représentation textuelle des UEs fournies dans `champs`"""
|
||||||
|
champs_tries = sorted(champs)
|
||||||
|
aff_comp = []
|
||||||
|
|
||||||
|
for comp in champs_tries:
|
||||||
|
aff_comp += ["📍" + comp]
|
||||||
|
return ", ".join(aff_comp)
|
||||||
|
|
||||||
|
|
||||||
|
def aff_competences(champs):
|
||||||
|
"""Affiche les compétences"""
|
||||||
|
champs_tries = sorted(champs)
|
||||||
|
aff_comp = []
|
||||||
|
|
||||||
|
for comp in champs_tries:
|
||||||
|
aff_comp += ["💡" + comp]
|
||||||
|
return ", ".join(aff_comp)
|
||||||
|
|
||||||
|
|
||||||
|
def repr_tags(tags):
|
||||||
|
"""Affiche les tags"""
|
||||||
|
tags_tries = sorted(tags)
|
||||||
|
aff_tag = ["👜" + tag for tag in tags_tries]
|
||||||
|
return ", ".join(aff_tag)
|
||||||
|
|
||||||
|
|
||||||
|
def aff_tags_par_categories(dict_tags):
|
||||||
|
"""Etant donné un dictionnaire de tags, triés
|
||||||
|
par catégorie (ici "personnalisés" ou "auto")
|
||||||
|
représentation textuelle des tags
|
||||||
|
"""
|
||||||
|
noms_tags_perso = sorted(list(set(dict_tags["personnalises"].keys())))
|
||||||
|
noms_tags_auto = sorted(list(set(dict_tags["auto"].keys()))) # + noms_tags_comp
|
||||||
|
if noms_tags_perso:
|
||||||
|
aff_tags_perso = ", ".join([f"👜{nom}" for nom in noms_tags_perso])
|
||||||
|
aff_tags_auto = ", ".join([f"👜{nom}" for nom in noms_tags_auto])
|
||||||
|
return f"Tags du programme de formation : {aff_tags_perso} + Automatiques : {aff_tags_auto}"
|
||||||
|
else:
|
||||||
|
aff_tags_auto = ", ".join([f"👜{nom}" for nom in noms_tags_auto])
|
||||||
|
return f"Tags automatiques {aff_tags_auto} (aucun tag personnalisé)"
|
||||||
|
|
||||||
|
# Affichage
|
||||||
|
|
||||||
|
|
||||||
|
def aff_trajectoires_suivies_par_etudiants(etudiants):
|
||||||
|
"""Affiche les trajectoires (regroupement de (form)semestres)
|
||||||
|
amenant un étudiant du S1 à un semestre final"""
|
||||||
|
# Affichage pour debug
|
||||||
|
etudiants_ids = etudiants.etudiants_ids
|
||||||
|
jeunes = list(enumerate(etudiants_ids))
|
||||||
|
for no_etud, etudid in jeunes:
|
||||||
|
etat = "⛔" if etudid in etudiants.abandons_ids else "✅"
|
||||||
|
|
||||||
|
pe_print(f"--> {etat} {etudiants.identites[etudid].nomprenom} (#{etudid}) :")
|
||||||
|
trajectoires = etudiants.trajectoires[etudid]
|
||||||
|
for nom_rcs, rcs in trajectoires.items():
|
||||||
|
if rcs:
|
||||||
|
pe_print(f" > RCS ⏯️{nom_rcs}: {rcs.get_repr()}")
|
||||||
|
|
||||||
|
|
||||||
|
def aff_semXs_suivis_par_etudiants(etudiants):
|
||||||
|
"""Affiche les SemX (regroupement de semestres de type Sx)
|
||||||
|
amenant un étudiant à valider un Sx"""
|
||||||
|
etudiants_ids = etudiants.etudiants_ids
|
||||||
|
jeunes = list(enumerate(etudiants_ids))
|
||||||
|
|
||||||
|
for no_etud, etudid in jeunes:
|
||||||
|
etat = "⛔" if etudid in etudiants.abandons_ids else "✅"
|
||||||
|
pe_print(f"--> {etat} {etudiants.identites[etudid].nomprenom} :")
|
||||||
|
for nom_rcs, rcs in etudiants.semXs[etudid].items():
|
||||||
|
if rcs:
|
||||||
|
pe_print(f" > SemX ⏯️{nom_rcs}: {rcs.get_repr()}")
|
||||||
|
|
||||||
|
vides = []
|
||||||
|
for nom_rcs in pe_rcs.TOUS_LES_SEMESTRES:
|
||||||
|
les_semX_suivis = []
|
||||||
|
for no_etud, etudid in jeunes:
|
||||||
|
if etudiants.semXs[etudid][nom_rcs]:
|
||||||
|
les_semX_suivis.append(etudiants.semXs[etudid][nom_rcs])
|
||||||
|
if not les_semX_suivis:
|
||||||
|
vides += [nom_rcs]
|
||||||
|
vides = sorted(list(set(vides)))
|
||||||
|
pe_print(f"⚠️ SemX sans données : {', '.join(vides)}")
|
||||||
|
|
||||||
|
|
||||||
|
def aff_capitalisations(etuds, ressembuttags, fid_final, acronymes_sorted, masque_df):
|
||||||
|
"""Affichage des capitalisations du sxtag pour debug"""
|
||||||
|
aff_cap = []
|
||||||
|
for etud in etuds:
|
||||||
|
cap = []
|
||||||
|
for frmsem_id in ressembuttags:
|
||||||
|
if frmsem_id != fid_final:
|
||||||
|
for accr in acronymes_sorted:
|
||||||
|
if masque_df[frmsem_id].loc[etud.etudid, accr] > 0.0:
|
||||||
|
cap += [accr]
|
||||||
|
if cap:
|
||||||
|
aff_cap += [f" > {etud.nomprenom} : {', '.join(cap)}"]
|
||||||
|
if aff_cap:
|
||||||
|
pe_print(f"--> ⚠️ Capitalisations :")
|
||||||
|
pe_print("\n".join(aff_cap))
|
||||||
|
|
||||||
|
|
||||||
|
def repr_comp_et_ues(acronymes_ues_to_competences):
|
||||||
|
"""Affichage pour debug"""
|
||||||
|
aff_comp = []
|
||||||
|
competences_sorted = sorted(acronymes_ues_to_competences.keys())
|
||||||
|
for comp in competences_sorted:
|
||||||
|
liste = []
|
||||||
|
for acro in acronymes_ues_to_competences:
|
||||||
|
if acronymes_ues_to_competences[acro] == comp:
|
||||||
|
liste += ["📍" + acro]
|
||||||
|
aff_comp += [f" 💡{comp} (⇔ {', '.join(liste)})"]
|
||||||
|
return "\n".join(aff_comp)
|
||||||
|
|
||||||
|
|
||||||
|
def aff_rcsemxs_suivis_par_etudiants(etudiants):
|
||||||
|
"""Affiche les RCSemX (regroupement de SemX)
|
||||||
|
amenant un étudiant du S1 à un Sx"""
|
||||||
|
etudiants_ids = etudiants.etudiants_ids
|
||||||
|
jeunes = list(enumerate(etudiants_ids))
|
||||||
|
|
||||||
|
for no_etud, etudid in jeunes:
|
||||||
|
etat = "⛔" if etudid in etudiants.abandons_ids else "✅"
|
||||||
|
pe_print(f"-> {etat} {etudiants.identites[etudid].nomprenom} :")
|
||||||
|
for nom_rcs, rcs in etudiants.rcsemXs[etudid].items():
|
||||||
|
if rcs:
|
||||||
|
pe_print(f" > RCSemX ⏯️{nom_rcs}: {rcs.get_repr()}")
|
||||||
|
|
||||||
|
vides = []
|
||||||
|
for nom_rcs in pe_rcs.TOUS_LES_RCS:
|
||||||
|
les_rcssemX_suivis = []
|
||||||
|
for no_etud, etudid in jeunes:
|
||||||
|
if etudiants.rcsemXs[etudid][nom_rcs]:
|
||||||
|
les_rcssemX_suivis.append(etudiants.rcsemXs[etudid][nom_rcs])
|
||||||
|
if not les_rcssemX_suivis:
|
||||||
|
vides += [nom_rcs]
|
||||||
|
vides = sorted(list(set(vides)))
|
||||||
|
pe_print(f"⚠️ RCSemX vides : {', '.join(vides)}")
|
||||||
|
|
|
@ -41,13 +41,13 @@ import datetime
|
||||||
import re
|
import re
|
||||||
import unicodedata
|
import unicodedata
|
||||||
|
|
||||||
|
import pandas as pd
|
||||||
from flask import g
|
from flask import g
|
||||||
|
|
||||||
import app.scodoc.sco_utils as scu
|
import app.scodoc.sco_utils as scu
|
||||||
|
|
||||||
from app.models import FormSemestre
|
from app.models import FormSemestre
|
||||||
from app.pe.pe_rcs import TYPES_RCS
|
from app.pe.rcss.pe_rcs import TYPES_RCS
|
||||||
from app.scodoc import sco_formsemestre
|
from app.scodoc import sco_formsemestre
|
||||||
from app.scodoc.sco_logos import find_logo
|
from app.scodoc.sco_logos import find_logo
|
||||||
|
|
||||||
|
@ -284,3 +284,56 @@ def get_cosemestres_diplomants(annee_diplome: int) -> dict[int, FormSemestre]:
|
||||||
cosemestres[fid] = cosem
|
cosemestres[fid] = cosem
|
||||||
|
|
||||||
return cosemestres
|
return cosemestres
|
||||||
|
|
||||||
|
|
||||||
|
def tri_semestres_par_rang(cosemestres: dict[int, FormSemestre]):
|
||||||
|
"""Partant d'un dictionnaire de cosemestres, les tri par rang (semestre_id) dans un
|
||||||
|
dictionnaire {rang: [liste des semestres du dit rang]}"""
|
||||||
|
cosemestres_tries = {}
|
||||||
|
for sem in cosemestres.values():
|
||||||
|
cosemestres_tries[sem.semestre_id] = cosemestres_tries.get(
|
||||||
|
sem.semestre_id, []
|
||||||
|
) + [sem]
|
||||||
|
return cosemestres_tries
|
||||||
|
|
||||||
|
|
||||||
|
def find_index_and_columns_communs(
|
||||||
|
df1: pd.DataFrame, df2: pd.DataFrame
|
||||||
|
) -> (list, list):
|
||||||
|
"""Partant de 2 DataFrames ``df1`` et ``df2``, renvoie les indices de lignes
|
||||||
|
et de colonnes, communes aux 2 dataframes
|
||||||
|
|
||||||
|
Args:
|
||||||
|
df1: Un dataFrame
|
||||||
|
df2: Un dataFrame
|
||||||
|
Returns:
|
||||||
|
Le tuple formé par la liste des indices de lignes communs et la liste des indices
|
||||||
|
de colonnes communes entre les 2 dataFrames
|
||||||
|
"""
|
||||||
|
indices1 = df1.index
|
||||||
|
indices2 = df2.index
|
||||||
|
indices_communs = list(df1.index.intersection(df2.index))
|
||||||
|
colonnes1 = df1.columns
|
||||||
|
colonnes2 = df2.columns
|
||||||
|
colonnes_communes = list(set(colonnes1) & set(colonnes2))
|
||||||
|
return indices_communs, colonnes_communes
|
||||||
|
|
||||||
|
|
||||||
|
def get_dernier_semestre_en_date(semestres: dict[int, FormSemestre]) -> FormSemestre:
|
||||||
|
"""Renvoie le dernier semestre en **date de fin** d'un dictionnaire
|
||||||
|
de semestres (potentiellement non trié) de la forme ``{fid: FormSemestre(fid)}``.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
semestres: Un dictionnaire de semestres
|
||||||
|
|
||||||
|
Return:
|
||||||
|
Le FormSemestre du semestre le plus récent
|
||||||
|
"""
|
||||||
|
if semestres:
|
||||||
|
fid_dernier_semestre = list(semestres.keys())[0]
|
||||||
|
dernier_semestre: FormSemestre = semestres[fid_dernier_semestre]
|
||||||
|
for fid in semestres:
|
||||||
|
if semestres[fid].date_fin > dernier_semestre.date_fin:
|
||||||
|
dernier_semestre = semestres[fid]
|
||||||
|
return dernier_semestre
|
||||||
|
return None
|
||||||
|
|
|
@ -5,7 +5,7 @@
|
||||||
#
|
#
|
||||||
# Gestion scolarite IUT
|
# Gestion scolarite IUT
|
||||||
#
|
#
|
||||||
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. c All rights reserved.
|
||||||
#
|
#
|
||||||
# This program is free software; you can redistribute it and/or modify
|
# This program is free software; you can redistribute it and/or modify
|
||||||
# it under the terms of the GNU General Public License as published by
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
@ -37,8 +37,10 @@ Created on 17/01/2024
|
||||||
"""
|
"""
|
||||||
import pandas as pd
|
import pandas as pd
|
||||||
|
|
||||||
|
from app import ScoValueError
|
||||||
from app.models import FormSemestre, Identite, Formation
|
from app.models import FormSemestre, Identite, Formation
|
||||||
from app.pe import pe_comp, pe_affichage
|
from app.pe import pe_comp, pe_affichage
|
||||||
|
from app.pe.rcss import pe_rcs
|
||||||
from app.scodoc import codes_cursus
|
from app.scodoc import codes_cursus
|
||||||
from app.scodoc import sco_utils as scu
|
from app.scodoc import sco_utils as scu
|
||||||
from app.comp.res_sem import load_formsemestre_results
|
from app.comp.res_sem import load_formsemestre_results
|
||||||
|
@ -55,16 +57,20 @@ class EtudiantsJuryPE:
|
||||||
self.annee_diplome = annee_diplome
|
self.annee_diplome = annee_diplome
|
||||||
"""L'année du diplôme"""
|
"""L'année du diplôme"""
|
||||||
|
|
||||||
self.identites: dict[int, Identite] = {} # ex. ETUDINFO_DICT
|
self.identites: dict[int:Identite] = {} # ex. ETUDINFO_DICT
|
||||||
"Les identités des étudiants traités pour le jury"
|
"""Les identités des étudiants traités pour le jury"""
|
||||||
|
|
||||||
self.cursus: dict[int, dict] = {}
|
self.cursus: dict[int:dict] = {}
|
||||||
"Les cursus (semestres suivis, abandons) des étudiants"
|
"""Les cursus (semestres suivis, abandons) des étudiants"""
|
||||||
|
|
||||||
self.trajectoires = {}
|
self.trajectoires: dict[int:dict] = {}
|
||||||
"""Les trajectoires/chemins de semestres suivis par les étudiants
|
"""Les trajectoires (regroupement cohérents de semestres) suivis par les étudiants"""
|
||||||
pour atteindre un aggrégat donné
|
|
||||||
(par ex: 3S=S1+S2+S3 à prendre en compte avec d'éventuels redoublements)"""
|
self.semXs: dict[int:dict] = {}
|
||||||
|
"""Les semXs (RCS de type Sx) suivis par chaque étudiant"""
|
||||||
|
|
||||||
|
self.rcsemXs: dict[int:dict] = {}
|
||||||
|
"""Les RC de SemXs (RCS de type Sx, xA, xS) suivis par chaque étudiant"""
|
||||||
|
|
||||||
self.etudiants_diplomes = {}
|
self.etudiants_diplomes = {}
|
||||||
"""Les identités des étudiants à considérer au jury (ceux qui seront effectivement
|
"""Les identités des étudiants à considérer au jury (ceux qui seront effectivement
|
||||||
|
@ -99,27 +105,26 @@ class EtudiantsJuryPE:
|
||||||
self.cosemestres = cosemestres
|
self.cosemestres = cosemestres
|
||||||
|
|
||||||
pe_affichage.pe_print(
|
pe_affichage.pe_print(
|
||||||
f"1) Recherche des coSemestres -> {len(cosemestres)} trouvés"
|
f"1) Recherche des cosemestres -> {len(cosemestres)} trouvés", info=True
|
||||||
)
|
)
|
||||||
|
|
||||||
pe_affichage.pe_print("2) Liste des étudiants dans les différents co-semestres")
|
|
||||||
self.etudiants_ids = get_etudiants_dans_semestres(cosemestres)
|
|
||||||
pe_affichage.pe_print(
|
pe_affichage.pe_print(
|
||||||
f" => {len(self.etudiants_ids)} étudiants trouvés dans les cosemestres"
|
"2) Liste des étudiants dans les différents cosemestres", info=True
|
||||||
|
)
|
||||||
|
etudiants_ids = get_etudiants_dans_semestres(cosemestres)
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
f" => {len(etudiants_ids)} étudiants trouvés dans les cosemestres",
|
||||||
|
info=True,
|
||||||
)
|
)
|
||||||
|
|
||||||
# Analyse des parcours étudiants pour déterminer leur année effective de diplome
|
# Analyse des parcours étudiants pour déterminer leur année effective de diplome
|
||||||
# avec prise en compte des redoublements, des abandons, ....
|
# avec prise en compte des redoublements, des abandons, ....
|
||||||
pe_affichage.pe_print("3) Analyse des parcours individuels des étudiants")
|
pe_affichage.pe_print(
|
||||||
|
"3) Analyse des parcours individuels des étudiants", info=True
|
||||||
|
)
|
||||||
|
|
||||||
for etudid in self.etudiants_ids:
|
# Ajoute une liste d'étudiants
|
||||||
self.identites[etudid] = Identite.get_etud(etudid)
|
self.add_etudiants(etudiants_ids)
|
||||||
|
|
||||||
# Analyse son cursus
|
|
||||||
self.analyse_etat_etudiant(etudid, cosemestres)
|
|
||||||
|
|
||||||
# Analyse son parcours pour atteindre chaque semestre de la formation
|
|
||||||
self.structure_cursus_etudiant(etudid)
|
|
||||||
|
|
||||||
# Les étudiants à prendre dans le diplôme, étudiants ayant abandonnés non compris
|
# Les étudiants à prendre dans le diplôme, étudiants ayant abandonnés non compris
|
||||||
self.etudiants_diplomes = self.get_etudiants_diplomes()
|
self.etudiants_diplomes = self.get_etudiants_diplomes()
|
||||||
|
@ -134,23 +139,35 @@ class EtudiantsJuryPE:
|
||||||
# Les identifiants des étudiants ayant redoublés ou ayant abandonnés
|
# Les identifiants des étudiants ayant redoublés ou ayant abandonnés
|
||||||
|
|
||||||
# Synthèse
|
# Synthèse
|
||||||
|
pe_affichage.pe_print(f"4) Bilan", info=True)
|
||||||
pe_affichage.pe_print(
|
pe_affichage.pe_print(
|
||||||
f" => {len(self.etudiants_diplomes)} étudiants à diplômer en {self.annee_diplome}"
|
f"--> {len(self.etudiants_diplomes)} étudiants à diplômer en {self.annee_diplome}",
|
||||||
|
info=True,
|
||||||
)
|
)
|
||||||
nbre_abandons = len(self.etudiants_ids) - len(self.etudiants_diplomes)
|
nbre_abandons = len(self.etudiants_ids) - len(self.etudiants_diplomes)
|
||||||
assert nbre_abandons == len(self.abandons_ids)
|
assert nbre_abandons == len(self.abandons_ids)
|
||||||
|
|
||||||
pe_affichage.pe_print(
|
pe_affichage.pe_print(
|
||||||
f" => {nbre_abandons} étudiants non considérés (redoublement, réorientation, abandon"
|
f"--> {nbre_abandons} étudiants traités mais non diplômés (redoublement, réorientation, abandon)"
|
||||||
)
|
)
|
||||||
# pe_affichage.pe_print(
|
|
||||||
# " => quelques étudiants futurs diplômés : "
|
def add_etudiants(self, etudiants_ids):
|
||||||
# + ", ".join([str(etudid) for etudid in list(self.etudiants_diplomes)[:10]])
|
"""Ajoute une liste d'étudiants aux données du jury"""
|
||||||
# )
|
nbre_etudiants_ajoutes = 0
|
||||||
# pe_affichage.pe_print(
|
for etudid in etudiants_ids:
|
||||||
# " => semestres dont il faut calculer les moyennes : "
|
if etudid not in self.identites:
|
||||||
# + ", ".join([str(fid) for fid in list(self.formsemestres_jury_ids)])
|
nbre_etudiants_ajoutes += 1
|
||||||
# )
|
|
||||||
|
# L'identité de l'étudiant
|
||||||
|
self.identites[etudid] = Identite.get_etud(etudid)
|
||||||
|
|
||||||
|
# Analyse son cursus
|
||||||
|
self.analyse_etat_etudiant(etudid, self.cosemestres)
|
||||||
|
|
||||||
|
# Analyse son parcours pour atteindre chaque semestre de la formation
|
||||||
|
self.structure_cursus_etudiant(etudid)
|
||||||
|
self.etudiants_ids = set(self.identites.keys())
|
||||||
|
return nbre_etudiants_ajoutes
|
||||||
|
|
||||||
def get_etudiants_diplomes(self) -> dict[int, Identite]:
|
def get_etudiants_diplomes(self) -> dict[int, Identite]:
|
||||||
"""Identités des étudiants (sous forme d'un dictionnaire `{etudid: Identite(etudid)}`
|
"""Identités des étudiants (sous forme d'un dictionnaire `{etudid: Identite(etudid)}`
|
||||||
|
@ -198,8 +215,11 @@ class EtudiantsJuryPE:
|
||||||
|
|
||||||
* à insérer une entrée dans ``self.cursus`` pour mémoriser son identité,
|
* à insérer une entrée dans ``self.cursus`` pour mémoriser son identité,
|
||||||
avec son nom, prénom, etc...
|
avec son nom, prénom, etc...
|
||||||
* à analyser son parcours, pour déterminer s'il n'a (ou non) abandonné l'IUT en cours de
|
* à analyser son parcours, pour déterminer s'il a démissionné, redoublé (autre année de diplôme)
|
||||||
route (cf. clé abandon)
|
ou a abandonné l'IUT en cours de route (cf. clé abandon). Un étudiant est considéré
|
||||||
|
en abandon si connaissant son dernier semestre (par ex. un S3) il n'est pas systématiquement
|
||||||
|
inscrit à l'un des S4, S5 ou S6 existants dans les cosemestres.
|
||||||
|
|
||||||
|
|
||||||
Args:
|
Args:
|
||||||
etudid: L'etudid d'un étudiant, à ajouter à ceux traiter par le jury
|
etudid: L'etudid d'un étudiant, à ajouter à ceux traiter par le jury
|
||||||
|
@ -217,11 +237,19 @@ class EtudiantsJuryPE:
|
||||||
if formsemestre.formation.is_apc()
|
if formsemestre.formation.is_apc()
|
||||||
}
|
}
|
||||||
|
|
||||||
|
# Le parcours final
|
||||||
|
parcour = formsemestres[0].etuds_inscriptions[etudid].parcour
|
||||||
|
if parcour:
|
||||||
|
libelle = parcour.libelle
|
||||||
|
else:
|
||||||
|
libelle = None
|
||||||
|
|
||||||
self.cursus[etudid] = {
|
self.cursus[etudid] = {
|
||||||
"etudid": etudid, # les infos sur l'étudiant
|
"etudid": etudid, # les infos sur l'étudiant
|
||||||
"etat_civil": identite.etat_civil, # Ajout à la table jury
|
"etat_civil": identite.etat_civil, # Ajout à la table jury
|
||||||
"nom": identite.nom,
|
"nom": identite.nom,
|
||||||
"entree": formsemestres[-1].date_debut.year, # La date d'entrée à l'IUT
|
"entree": formsemestres[-1].date_debut.year, # La date d'entrée à l'IUT
|
||||||
|
"parcours": libelle, # Le parcours final
|
||||||
"diplome": get_annee_diplome(
|
"diplome": get_annee_diplome(
|
||||||
identite
|
identite
|
||||||
), # Le date prévisionnelle de son diplôme
|
), # Le date prévisionnelle de son diplôme
|
||||||
|
@ -232,35 +260,24 @@ class EtudiantsJuryPE:
|
||||||
"abandon": False, # va être traité en dessous
|
"abandon": False, # va être traité en dessous
|
||||||
}
|
}
|
||||||
|
|
||||||
# Est-il démissionnaire : charge son dernier semestre pour connaitre son état ?
|
# Si l'étudiant est succeptible d'être diplomé
|
||||||
dernier_semes_etudiant = formsemestres[0]
|
if self.cursus[etudid]["diplome"] == self.annee_diplome:
|
||||||
res = load_formsemestre_results(dernier_semes_etudiant)
|
# Est-il démissionnaire : charge son dernier semestre pour connaitre son état ?
|
||||||
etud_etat = res.get_etud_etat(etudid)
|
dernier_semes_etudiant = formsemestres[0]
|
||||||
if etud_etat == scu.DEMISSION:
|
res = load_formsemestre_results(dernier_semes_etudiant)
|
||||||
self.cursus[etudid]["abandon"] |= True
|
etud_etat = res.get_etud_etat(etudid)
|
||||||
else:
|
if etud_etat == scu.DEMISSION:
|
||||||
# Est-il réorienté ou a-t-il arrêté volontairement sa formation ?
|
self.cursus[etudid]["abandon"] = True
|
||||||
self.cursus[etudid]["abandon"] |= arret_de_formation(identite, cosemestres)
|
else:
|
||||||
|
# Est-il réorienté ou a-t-il arrêté (volontairement) sa formation ?
|
||||||
|
self.cursus[etudid]["abandon"] = arret_de_formation(
|
||||||
|
identite, cosemestres
|
||||||
|
)
|
||||||
|
|
||||||
def get_semestres_significatifs(self, etudid: int):
|
# Initialise ses trajectoires/SemX/RCSemX
|
||||||
"""Ensemble des semestres d'un étudiant, qui l'auraient amené à être diplomé
|
self.trajectoires[etudid] = {aggregat: None for aggregat in pe_rcs.TOUS_LES_RCS}
|
||||||
l'année visée (supprime les semestres qui conduisent à une diplomation
|
self.semXs[etudid] = {aggregat: None for aggregat in pe_rcs.TOUS_LES_SEMESTRES}
|
||||||
postérieure à celle du jury visé)
|
self.rcsemXs[etudid] = {aggregat: None for aggregat in pe_rcs.TOUS_LES_RCS}
|
||||||
|
|
||||||
Args:
|
|
||||||
etudid: L'identifiant d'un étudiant
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Un dictionnaire ``{fid: FormSemestre(fid)`` dans lequel les semestres
|
|
||||||
amènent à une diplomation avant l'annee de diplomation du jury
|
|
||||||
"""
|
|
||||||
semestres_etudiant = self.cursus[etudid]["formsemestres"]
|
|
||||||
semestres_significatifs = {}
|
|
||||||
for fid in semestres_etudiant:
|
|
||||||
semestre = semestres_etudiant[fid]
|
|
||||||
if pe_comp.get_annee_diplome_semestre(semestre) <= self.annee_diplome:
|
|
||||||
semestres_significatifs[fid] = semestre
|
|
||||||
return semestres_significatifs
|
|
||||||
|
|
||||||
def structure_cursus_etudiant(self, etudid: int):
|
def structure_cursus_etudiant(self, etudid: int):
|
||||||
"""Structure les informations sur les semestres suivis par un
|
"""Structure les informations sur les semestres suivis par un
|
||||||
|
@ -269,9 +286,11 @@ class EtudiantsJuryPE:
|
||||||
|
|
||||||
Cette structuration s'appuie sur les numéros de semestre: pour chaque Si, stocke :
|
Cette structuration s'appuie sur les numéros de semestre: pour chaque Si, stocke :
|
||||||
le dernier semestre (en date) de numéro i qu'il a suivi (1 ou 0 si pas encore suivi).
|
le dernier semestre (en date) de numéro i qu'il a suivi (1 ou 0 si pas encore suivi).
|
||||||
Ce semestre influera les interclassement par semestre dans la promo.
|
Ce semestre influera les interclassements par semestre dans la promo.
|
||||||
"""
|
"""
|
||||||
semestres_significatifs = self.get_semestres_significatifs(etudid)
|
semestres_significatifs = get_semestres_significatifs(
|
||||||
|
self.cursus[etudid]["formsemestres"], self.annee_diplome
|
||||||
|
)
|
||||||
|
|
||||||
# Tri des semestres par numéro de semestre
|
# Tri des semestres par numéro de semestre
|
||||||
for i in range(1, pe_comp.NBRE_SEMESTRES_DIPLOMANT + 1):
|
for i in range(1, pe_comp.NBRE_SEMESTRES_DIPLOMANT + 1):
|
||||||
|
@ -283,12 +302,10 @@ class EtudiantsJuryPE:
|
||||||
}
|
}
|
||||||
self.cursus[etudid][f"S{i}"] = semestres_i
|
self.cursus[etudid][f"S{i}"] = semestres_i
|
||||||
|
|
||||||
def get_formsemestres_terminaux_aggregat(
|
def get_formsemestres_finals_des_rcs(self, nom_rcs: str) -> dict[int, FormSemestre]:
|
||||||
self, aggregat: str
|
"""Pour un nom de RCS donné, ensemble des formsemestres finals possibles
|
||||||
) -> dict[int, FormSemestre]:
|
pour les RCS. Par ex. un RCS '3S' incluant S1+S2+S3 a pour semestre final un S3.
|
||||||
"""Pour un aggrégat donné, ensemble des formsemestres terminaux possibles pour l'aggrégat
|
Les formsemestres finals obtenus traduisent :
|
||||||
(pour l'aggrégat '3S' incluant S1+S2+S3, a pour semestre terminal S3).
|
|
||||||
Ces formsemestres traduisent :
|
|
||||||
|
|
||||||
* les différents parcours des étudiants liés par exemple au choix de modalité
|
* les différents parcours des étudiants liés par exemple au choix de modalité
|
||||||
(par ex: S1 FI + S2 FI + S3 FI ou S1 FI + S2 FI + S3 UFA), en renvoyant les
|
(par ex: S1 FI + S2 FI + S3 FI ou S1 FI + S2 FI + S3 UFA), en renvoyant les
|
||||||
|
@ -299,14 +316,14 @@ class EtudiantsJuryPE:
|
||||||
renvoyant les formsemestre_id du S3 (1ère session) et du S3 (2ème session)
|
renvoyant les formsemestre_id du S3 (1ère session) et du S3 (2ème session)
|
||||||
|
|
||||||
Args:
|
Args:
|
||||||
aggregat: L'aggrégat
|
nom_rcs: Le nom du RCS (parmi Sx, xA, xS)
|
||||||
|
|
||||||
Returns:
|
Returns:
|
||||||
Un dictionnaire ``{fid: FormSemestre(fid)}``
|
Un dictionnaire ``{fid: FormSemestre(fid)}``
|
||||||
"""
|
"""
|
||||||
formsemestres_terminaux = {}
|
formsemestres_terminaux = {}
|
||||||
for trajectoire_aggr in self.trajectoires.values():
|
for trajectoire_aggr in self.cursus.values():
|
||||||
trajectoire = trajectoire_aggr[aggregat]
|
trajectoire = trajectoire_aggr[nom_rcs]
|
||||||
if trajectoire:
|
if trajectoire:
|
||||||
# Le semestre terminal de l'étudiant de l'aggrégat
|
# Le semestre terminal de l'étudiant de l'aggrégat
|
||||||
fid = trajectoire.formsemestre_final.formsemestre_id
|
fid = trajectoire.formsemestre_final.formsemestre_id
|
||||||
|
@ -345,7 +362,9 @@ class EtudiantsJuryPE:
|
||||||
etudiant = self.identites[etudid]
|
etudiant = self.identites[etudid]
|
||||||
cursus = self.cursus[etudid]
|
cursus = self.cursus[etudid]
|
||||||
formsemestres = cursus["formsemestres"]
|
formsemestres = cursus["formsemestres"]
|
||||||
|
parcours = cursus["parcours"]
|
||||||
|
if not parcours:
|
||||||
|
parcours = ""
|
||||||
if cursus["diplome"]:
|
if cursus["diplome"]:
|
||||||
diplome = cursus["diplome"]
|
diplome = cursus["diplome"]
|
||||||
else:
|
else:
|
||||||
|
@ -359,6 +378,7 @@ class EtudiantsJuryPE:
|
||||||
"Prenom": etudiant.prenom,
|
"Prenom": etudiant.prenom,
|
||||||
"Civilite": etudiant.civilite_str,
|
"Civilite": etudiant.civilite_str,
|
||||||
"Age": pe_comp.calcul_age(etudiant.date_naissance),
|
"Age": pe_comp.calcul_age(etudiant.date_naissance),
|
||||||
|
"Parcours": parcours,
|
||||||
"Date entree": cursus["entree"],
|
"Date entree": cursus["entree"],
|
||||||
"Date diplome": diplome,
|
"Date diplome": diplome,
|
||||||
"Nb semestres": len(formsemestres),
|
"Nb semestres": len(formsemestres),
|
||||||
|
@ -376,13 +396,35 @@ class EtudiantsJuryPE:
|
||||||
return df
|
return df
|
||||||
|
|
||||||
|
|
||||||
|
def get_semestres_significatifs(formsemestres, annee_diplome):
|
||||||
|
"""Partant d'un ensemble de semestre, renvoie les semestres qui amèneraient les étudiants
|
||||||
|
à être diplômé à l'année visée, y compris s'ils n'avaient pas redoublé et seraient donc
|
||||||
|
diplômé plus tard.
|
||||||
|
|
||||||
|
De fait, supprime les semestres qui conduisent à une diplomation postérieure
|
||||||
|
à celle visée.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
formsemestres: une liste de formsemestres
|
||||||
|
annee_diplome: l'année du diplôme visée
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Un dictionnaire ``{fid: FormSemestre(fid)}`` dans lequel les semestres
|
||||||
|
amènent à une diplômation antérieur à celle de la diplômation visée par le jury
|
||||||
|
"""
|
||||||
|
# semestres_etudiant = self.cursus[etudid]["formsemestres"]
|
||||||
|
semestres_significatifs = {}
|
||||||
|
for fid in formsemestres:
|
||||||
|
semestre = formsemestres[fid]
|
||||||
|
if pe_comp.get_annee_diplome_semestre(semestre) <= annee_diplome:
|
||||||
|
semestres_significatifs[fid] = semestre
|
||||||
|
return semestres_significatifs
|
||||||
|
|
||||||
|
|
||||||
def get_etudiants_dans_semestres(semestres: dict[int, FormSemestre]) -> set:
|
def get_etudiants_dans_semestres(semestres: dict[int, FormSemestre]) -> set:
|
||||||
"""Ensemble d'identifiants des étudiants (identifiés via leur ``etudid``)
|
"""Ensemble d'identifiants des étudiants (identifiés via leur ``etudid``)
|
||||||
inscrits à l'un des semestres de la liste de ``semestres``.
|
inscrits à l'un des semestres de la liste de ``semestres``.
|
||||||
|
|
||||||
Remarque : Les ``cosemestres`` sont généralement obtenus avec
|
|
||||||
``sco_formsemestre.do_formsemestre_list()``
|
|
||||||
|
|
||||||
Args:
|
Args:
|
||||||
semestres: Un dictionnaire ``{fid: Formsemestre(fid)}`` donnant un
|
semestres: Un dictionnaire ``{fid: Formsemestre(fid)}`` donnant un
|
||||||
ensemble d'identifiant de semestres
|
ensemble d'identifiant de semestres
|
||||||
|
@ -430,7 +472,7 @@ def get_annee_diplome(etud: Identite) -> int | None:
|
||||||
|
|
||||||
|
|
||||||
def get_semestres_apc(identite: Identite) -> list:
|
def get_semestres_apc(identite: Identite) -> list:
|
||||||
"""Liste des semestres d'un étudiant qui corresponde à une formation APC.
|
"""Liste des semestres d'un étudiant qui correspondent à une formation APC.
|
||||||
|
|
||||||
Args:
|
Args:
|
||||||
identite: L'identité d'un étudiant
|
identite: L'identité d'un étudiant
|
||||||
|
@ -446,8 +488,8 @@ def get_semestres_apc(identite: Identite) -> list:
|
||||||
return semestres_apc
|
return semestres_apc
|
||||||
|
|
||||||
|
|
||||||
def arret_de_formation(etud: Identite, cosemestres: list[FormSemestre]) -> bool:
|
def arret_de_formation(etud: Identite, cosemestres: dict[int, FormSemestre]) -> bool:
|
||||||
"""Détermine si un étudiant a arrêté sa formation. Il peut s'agir :
|
"""Détermine si un étudiant a arrêté sa formation (volontairement ou non). Il peut s'agir :
|
||||||
|
|
||||||
* d'une réorientation à l'initiative du jury de semestre ou d'une démission
|
* d'une réorientation à l'initiative du jury de semestre ou d'une démission
|
||||||
(on pourrait utiliser les code NAR pour réorienté & DEM pour démissionnaire
|
(on pourrait utiliser les code NAR pour réorienté & DEM pour démissionnaire
|
||||||
|
@ -458,7 +500,8 @@ def arret_de_formation(etud: Identite, cosemestres: list[FormSemestre]) -> bool:
|
||||||
|
|
||||||
Dans les cas, on considérera que l'étudiant a arrêté sa formation s'il n'est pas
|
Dans les cas, on considérera que l'étudiant a arrêté sa formation s'il n'est pas
|
||||||
dans l'un des "derniers" cosemestres (semestres conduisant à la même année de diplômation)
|
dans l'un des "derniers" cosemestres (semestres conduisant à la même année de diplômation)
|
||||||
connu dans Scodoc.
|
connu dans Scodoc. Par "derniers" cosemestres, est fait le choix d'analyser tous les cosemestres
|
||||||
|
de rang/semestre_id supérieur (et donc de dates) au dernier semestre dans lequel il a été inscrit.
|
||||||
|
|
||||||
Par ex: au moment du jury PE en fin de S5 (pas de S6 renseigné dans Scodoc),
|
Par ex: au moment du jury PE en fin de S5 (pas de S6 renseigné dans Scodoc),
|
||||||
l'étudiant doit appartenir à une instance des S5 qui conduisent à la diplomation dans
|
l'étudiant doit appartenir à une instance des S5 qui conduisent à la diplomation dans
|
||||||
|
@ -485,7 +528,6 @@ def arret_de_formation(etud: Identite, cosemestres: list[FormSemestre]) -> bool:
|
||||||
Est-il réorienté, démissionnaire ou a-t-il arrêté de son propre chef sa formation ?
|
Est-il réorienté, démissionnaire ou a-t-il arrêté de son propre chef sa formation ?
|
||||||
|
|
||||||
TODO:: A reprendre pour le cas des étudiants à l'étranger
|
TODO:: A reprendre pour le cas des étudiants à l'étranger
|
||||||
TODO:: A reprendre si BUT avec semestres décalés
|
|
||||||
"""
|
"""
|
||||||
# Les semestres APC de l'étudiant
|
# Les semestres APC de l'étudiant
|
||||||
semestres = get_semestres_apc(etud)
|
semestres = get_semestres_apc(etud)
|
||||||
|
@ -493,61 +535,54 @@ def arret_de_formation(etud: Identite, cosemestres: list[FormSemestre]) -> bool:
|
||||||
if not semestres_apc:
|
if not semestres_apc:
|
||||||
return True
|
return True
|
||||||
|
|
||||||
# Son dernier semestre APC en date
|
# Le dernier semestre de l'étudiant
|
||||||
dernier_formsemestre = get_dernier_semestre_en_date(semestres_apc)
|
dernier_formsemestre = semestres[0]
|
||||||
numero_dernier_formsemestre = dernier_formsemestre.semestre_id
|
rang_dernier_semestre = dernier_formsemestre.semestre_id
|
||||||
|
|
||||||
# Les numéro de semestres possible dans lesquels il pourrait s'incrire
|
# Les cosemestres de rang supérieur ou égal à celui de formsemestre, triés par rang,
|
||||||
# semestre impair => passage de droit en semestre pair suivant (effet de l'annualisation)
|
# sous la forme ``{semestre_id: [liste des comestres associé à ce semestre_id]}``
|
||||||
if numero_dernier_formsemestre % 2 == 1:
|
cosemestres_tries_par_rang = pe_comp.tri_semestres_par_rang(cosemestres)
|
||||||
numeros_possibles = list(
|
|
||||||
range(numero_dernier_formsemestre + 1, pe_comp.NBRE_SEMESTRES_DIPLOMANT)
|
cosemestres_superieurs = {}
|
||||||
)
|
for rang in cosemestres_tries_par_rang:
|
||||||
# semestre pair => passage en année supérieure ou redoublement
|
if rang > rang_dernier_semestre:
|
||||||
else: #
|
cosemestres_superieurs[rang] = cosemestres_tries_par_rang[rang]
|
||||||
numeros_possibles = list(
|
|
||||||
range(
|
# Si pas d'autres cosemestres postérieurs
|
||||||
max(numero_dernier_formsemestre - 1, 1),
|
if not cosemestres_superieurs:
|
||||||
pe_comp.NBRE_SEMESTRES_DIPLOMANT,
|
return False
|
||||||
)
|
|
||||||
|
# Pour chaque rang de (co)semestres, y-a-il un dans lequel il est inscrit ?
|
||||||
|
etat_inscriptions = {rang: False for rang in cosemestres_superieurs}
|
||||||
|
for rang in etat_inscriptions:
|
||||||
|
for sem in cosemestres_superieurs[rang]:
|
||||||
|
etudiants_du_sem = {ins.etudid for ins in sem.inscriptions}
|
||||||
|
if etud.etudid in etudiants_du_sem:
|
||||||
|
etat_inscriptions[rang] = True
|
||||||
|
|
||||||
|
# Vérifie qu'il n'y a pas de "trous" dans les rangs des cosemestres
|
||||||
|
rangs = sorted(etat_inscriptions.keys())
|
||||||
|
if list(rangs) != list(range(min(rangs), max(rangs) + 1)):
|
||||||
|
difference = set(range(min(rangs), max(rangs) + 1)) - set(rangs)
|
||||||
|
affichage = ",".join([f"S{val}" for val in difference])
|
||||||
|
raise ScoValueError(
|
||||||
|
f"Il manque le(s) semestre(s) {affichage} au cursus de {etud.etat_civil} ({etud.etudid})."
|
||||||
)
|
)
|
||||||
|
|
||||||
# Y-a-t-il des cosemestres dans lesquels il aurait pu s'incrire ?
|
# Est-il inscrit à tous les semestres de rang supérieur ? Si non, est démissionnaire
|
||||||
formsestres_superieurs_possibles = []
|
est_demissionnaire = sum(etat_inscriptions.values()) != len(rangs)
|
||||||
for fid, sem in cosemestres.items(): # Les semestres ayant des inscrits
|
if est_demissionnaire:
|
||||||
if (
|
non_inscrit_a = [
|
||||||
fid != dernier_formsemestre.formsemestre_id
|
rang for rang in etat_inscriptions if not etat_inscriptions[rang]
|
||||||
and sem.semestre_id in numeros_possibles
|
]
|
||||||
and sem.date_debut.year >= dernier_formsemestre.date_debut.year
|
affichage = ", ".join([f"S{val}" for val in non_inscrit_a])
|
||||||
):
|
pe_affichage.pe_print(
|
||||||
# date de debut des semestres possibles postérieur au dernier semestre de l'étudiant
|
f"--> ⛔ {etud.etat_civil} ({etud.etudid}), non inscrit dans {affichage} amenant à diplômation"
|
||||||
# et de niveau plus élevé que le dernier semestre valide de l'étudiant
|
)
|
||||||
formsestres_superieurs_possibles.append(fid)
|
else:
|
||||||
|
pe_affichage.pe_print(f"--> ✅ {etud.etat_civil} ({etud.etudid})")
|
||||||
|
|
||||||
if len(formsestres_superieurs_possibles) > 0:
|
return est_demissionnaire
|
||||||
return True
|
|
||||||
|
|
||||||
return False
|
|
||||||
|
|
||||||
|
|
||||||
def get_dernier_semestre_en_date(semestres: dict[int, FormSemestre]) -> FormSemestre:
|
|
||||||
"""Renvoie le dernier semestre en **date de fin** d'un dictionnaire
|
|
||||||
de semestres (potentiellement non trié) de la forme ``{fid: FormSemestre(fid)}``.
|
|
||||||
|
|
||||||
Args:
|
|
||||||
semestres: Un dictionnaire de semestres
|
|
||||||
|
|
||||||
Return:
|
|
||||||
Le FormSemestre du semestre le plus récent
|
|
||||||
"""
|
|
||||||
if semestres:
|
|
||||||
fid_dernier_semestre = list(semestres.keys())[0]
|
|
||||||
dernier_semestre: FormSemestre = semestres[fid_dernier_semestre]
|
|
||||||
for fid in semestres:
|
|
||||||
if semestres[fid].date_fin > dernier_semestre.date_fin:
|
|
||||||
dernier_semestre = semestres[fid]
|
|
||||||
return dernier_semestre
|
|
||||||
return None
|
|
||||||
|
|
||||||
|
|
||||||
def etapes_du_cursus(
|
def etapes_du_cursus(
|
||||||
|
@ -613,6 +648,6 @@ def nom_semestre_etape(semestre: FormSemestre, avec_fid=False) -> str:
|
||||||
f"{semestre.date_debut.year}-{semestre.date_fin.year}",
|
f"{semestre.date_debut.year}-{semestre.date_fin.year}",
|
||||||
]
|
]
|
||||||
if avec_fid:
|
if avec_fid:
|
||||||
description.append(f"({semestre.formsemestre_id})")
|
description.append(f"(#{semestre.formsemestre_id})")
|
||||||
|
|
||||||
return " ".join(description)
|
return " ".join(description)
|
||||||
|
|
|
@ -1,160 +0,0 @@
|
||||||
##############################################################################
|
|
||||||
#
|
|
||||||
# Gestion scolarite IUT
|
|
||||||
#
|
|
||||||
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
|
||||||
#
|
|
||||||
# This program is free software; you can redistribute it and/or modify
|
|
||||||
# it under the terms of the GNU General Public License as published by
|
|
||||||
# the Free Software Foundation; either version 2 of the License, or
|
|
||||||
# (at your option) any later version.
|
|
||||||
#
|
|
||||||
# This program is distributed in the hope that it will be useful,
|
|
||||||
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
|
||||||
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
|
||||||
# GNU General Public License for more details.
|
|
||||||
#
|
|
||||||
# You should have received a copy of the GNU General Public License
|
|
||||||
# along with this program; if not, write to the Free Software
|
|
||||||
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
|
||||||
#
|
|
||||||
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
|
||||||
#
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
# Module "Avis de poursuite d'étude"
|
|
||||||
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
"""
|
|
||||||
Created on Thu Sep 8 09:36:33 2016
|
|
||||||
|
|
||||||
@author: barasc
|
|
||||||
"""
|
|
||||||
|
|
||||||
import pandas as pd
|
|
||||||
import numpy as np
|
|
||||||
|
|
||||||
from app.pe.pe_tabletags import TableTag, MoyenneTag
|
|
||||||
from app.pe.pe_etudiant import EtudiantsJuryPE
|
|
||||||
from app.pe.pe_rcs import RCS, RCSsJuryPE
|
|
||||||
from app.pe.pe_rcstag import RCSTag
|
|
||||||
|
|
||||||
|
|
||||||
class RCSInterclasseTag(TableTag):
|
|
||||||
"""
|
|
||||||
Interclasse l'ensemble des étudiants diplômés à une année
|
|
||||||
donnée (celle du jury), pour un RCS donné (par ex: 'S2', '3S')
|
|
||||||
en reportant :
|
|
||||||
|
|
||||||
* les moyennes obtenues sur la trajectoire qu'il ont suivi pour atteindre
|
|
||||||
le numéro de semestre de fin de l'aggrégat (indépendamment de son
|
|
||||||
formsemestre)
|
|
||||||
* calculant le classement sur les étudiants diplômes
|
|
||||||
"""
|
|
||||||
|
|
||||||
def __init__(
|
|
||||||
self,
|
|
||||||
nom_rcs: str,
|
|
||||||
etudiants: EtudiantsJuryPE,
|
|
||||||
rcss_jury_pe: RCSsJuryPE,
|
|
||||||
rcss_tags: dict[tuple, RCSTag],
|
|
||||||
):
|
|
||||||
TableTag.__init__(self)
|
|
||||||
|
|
||||||
self.nom_rcs = nom_rcs
|
|
||||||
"""Le nom du RCS interclassé"""
|
|
||||||
|
|
||||||
self.nom = self.get_repr()
|
|
||||||
|
|
||||||
"""Les étudiants diplômés et leurs rcss""" # TODO
|
|
||||||
self.diplomes_ids = etudiants.etudiants_diplomes
|
|
||||||
self.etudiants_diplomes = {etudid for etudid in self.diplomes_ids}
|
|
||||||
# pour les exports sous forme de dataFrame
|
|
||||||
self.etudiants = {
|
|
||||||
etudid: etudiants.identites[etudid].etat_civil
|
|
||||||
for etudid in self.diplomes_ids
|
|
||||||
}
|
|
||||||
|
|
||||||
# Les trajectoires (et leur version tagguées), en ne gardant que
|
|
||||||
# celles associées à l'aggrégat
|
|
||||||
self.rcss: dict[int, RCS] = {}
|
|
||||||
"""Ensemble des trajectoires associées à l'aggrégat"""
|
|
||||||
for trajectoire_id in rcss_jury_pe.rcss:
|
|
||||||
trajectoire = rcss_jury_pe.rcss[trajectoire_id]
|
|
||||||
if trajectoire_id[0] == nom_rcs:
|
|
||||||
self.rcss[trajectoire_id] = trajectoire
|
|
||||||
|
|
||||||
self.trajectoires_taggues: dict[int, RCS] = {}
|
|
||||||
"""Ensemble des trajectoires tagguées associées à l'aggrégat"""
|
|
||||||
for trajectoire_id in self.rcss:
|
|
||||||
self.trajectoires_taggues[trajectoire_id] = rcss_tags[trajectoire_id]
|
|
||||||
|
|
||||||
# Les trajectoires suivies par les étudiants du jury, en ne gardant que
|
|
||||||
# celles associées aux diplomés
|
|
||||||
self.suivi: dict[int, RCS] = {}
|
|
||||||
"""Association entre chaque étudiant et la trajectoire tagguée à prendre en
|
|
||||||
compte pour l'aggrégat"""
|
|
||||||
for etudid in self.diplomes_ids:
|
|
||||||
self.suivi[etudid] = rcss_jury_pe.suivi[etudid][nom_rcs]
|
|
||||||
|
|
||||||
self.tags_sorted = self.do_taglist()
|
|
||||||
"""Liste des tags (triés par ordre alphabétique)"""
|
|
||||||
|
|
||||||
# Construit la matrice de notes
|
|
||||||
self.notes = self.compute_notes_matrice()
|
|
||||||
"""Matrice des notes de l'aggrégat"""
|
|
||||||
|
|
||||||
# Synthétise les moyennes/classements par tag
|
|
||||||
self.moyennes_tags: dict[str, MoyenneTag] = {}
|
|
||||||
for tag in self.tags_sorted:
|
|
||||||
moy_gen_tag = self.notes[tag]
|
|
||||||
self.moyennes_tags[tag] = MoyenneTag(tag, moy_gen_tag)
|
|
||||||
|
|
||||||
# Est significatif ? (aka a-t-il des tags et des notes)
|
|
||||||
self.significatif = len(self.tags_sorted) > 0
|
|
||||||
|
|
||||||
def get_repr(self) -> str:
|
|
||||||
"""Une représentation textuelle"""
|
|
||||||
return f"Aggrégat {self.nom_rcs}"
|
|
||||||
|
|
||||||
def do_taglist(self):
|
|
||||||
"""Synthétise les tags à partir des trajectoires_tagguées
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Une liste de tags triés par ordre alphabétique
|
|
||||||
"""
|
|
||||||
tags = []
|
|
||||||
for trajectoire in self.trajectoires_taggues.values():
|
|
||||||
tags.extend(trajectoire.tags_sorted)
|
|
||||||
return sorted(set(tags))
|
|
||||||
|
|
||||||
def compute_notes_matrice(self):
|
|
||||||
"""Construit la matrice de notes (etudid x tags)
|
|
||||||
retraçant les moyennes obtenues par les étudiants dans les semestres associés à
|
|
||||||
l'aggrégat (une trajectoire ayant pour numéro de semestre final, celui de l'aggrégat).
|
|
||||||
"""
|
|
||||||
# nb_tags = len(self.tags_sorted) unused ?
|
|
||||||
# nb_etudiants = len(self.diplomes_ids)
|
|
||||||
|
|
||||||
# Index de la matrice (etudids -> dim 0, tags -> dim 1)
|
|
||||||
etudids = list(self.diplomes_ids)
|
|
||||||
tags = self.tags_sorted
|
|
||||||
|
|
||||||
# Partant d'un dataframe vierge
|
|
||||||
df = pd.DataFrame(np.nan, index=etudids, columns=tags)
|
|
||||||
|
|
||||||
for trajectoire in self.trajectoires_taggues.values():
|
|
||||||
# Charge les moyennes par tag de la trajectoire tagguée
|
|
||||||
notes = trajectoire.notes
|
|
||||||
# Etudiants/Tags communs entre la trajectoire_tagguée et les données interclassées
|
|
||||||
etudids_communs = df.index.intersection(notes.index)
|
|
||||||
tags_communs = df.columns.intersection(notes.columns)
|
|
||||||
|
|
||||||
# Injecte les notes par tag
|
|
||||||
df.loc[etudids_communs, tags_communs] = notes.loc[
|
|
||||||
etudids_communs, tags_communs
|
|
||||||
]
|
|
||||||
|
|
||||||
return df
|
|
1115
app/pe/pe_jury.py
1115
app/pe/pe_jury.py
File diff suppressed because it is too large
Load Diff
269
app/pe/pe_rcs.py
269
app/pe/pe_rcs.py
|
@ -1,269 +0,0 @@
|
||||||
##############################################################################
|
|
||||||
# Module "Avis de poursuite d'étude"
|
|
||||||
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
"""
|
|
||||||
Created on 01-2024
|
|
||||||
|
|
||||||
@author: barasc
|
|
||||||
"""
|
|
||||||
|
|
||||||
import app.pe.pe_comp as pe_comp
|
|
||||||
|
|
||||||
from app.models import FormSemestre
|
|
||||||
from app.pe.pe_etudiant import EtudiantsJuryPE, get_dernier_semestre_en_date
|
|
||||||
|
|
||||||
|
|
||||||
TYPES_RCS = {
|
|
||||||
"S1": {
|
|
||||||
"aggregat": ["S1"],
|
|
||||||
"descr": "Semestre 1 (S1)",
|
|
||||||
},
|
|
||||||
"S2": {
|
|
||||||
"aggregat": ["S2"],
|
|
||||||
"descr": "Semestre 2 (S2)",
|
|
||||||
},
|
|
||||||
"1A": {
|
|
||||||
"aggregat": ["S1", "S2"],
|
|
||||||
"descr": "BUT1 (S1+S2)",
|
|
||||||
},
|
|
||||||
"S3": {
|
|
||||||
"aggregat": ["S3"],
|
|
||||||
"descr": "Semestre 3 (S3)",
|
|
||||||
},
|
|
||||||
"S4": {
|
|
||||||
"aggregat": ["S4"],
|
|
||||||
"descr": "Semestre 4 (S4)",
|
|
||||||
},
|
|
||||||
"2A": {
|
|
||||||
"aggregat": ["S3", "S4"],
|
|
||||||
"descr": "BUT2 (S3+S4)",
|
|
||||||
},
|
|
||||||
"3S": {
|
|
||||||
"aggregat": ["S1", "S2", "S3"],
|
|
||||||
"descr": "Moyenne du semestre 1 au semestre 3 (S1+S2+S3)",
|
|
||||||
},
|
|
||||||
"4S": {
|
|
||||||
"aggregat": ["S1", "S2", "S3", "S4"],
|
|
||||||
"descr": "Moyenne du semestre 1 au semestre 4 (S1+S2+S3+S4)",
|
|
||||||
},
|
|
||||||
"S5": {
|
|
||||||
"aggregat": ["S5"],
|
|
||||||
"descr": "Semestre 5 (S5)",
|
|
||||||
},
|
|
||||||
"S6": {
|
|
||||||
"aggregat": ["S6"],
|
|
||||||
"descr": "Semestre 6 (S6)",
|
|
||||||
},
|
|
||||||
"3A": {
|
|
||||||
"aggregat": ["S5", "S6"],
|
|
||||||
"descr": "3ème année (S5+S6)",
|
|
||||||
},
|
|
||||||
"5S": {
|
|
||||||
"aggregat": ["S1", "S2", "S3", "S4", "S5"],
|
|
||||||
"descr": "Moyenne du semestre 1 au semestre 5 (S1+S2+S3+S4+S5)",
|
|
||||||
},
|
|
||||||
"6S": {
|
|
||||||
"aggregat": ["S1", "S2", "S3", "S4", "S5", "S6"],
|
|
||||||
"descr": "Moyenne globale (S1+S2+S3+S4+S5+S6)",
|
|
||||||
},
|
|
||||||
}
|
|
||||||
"""Dictionnaire détaillant les différents regroupements cohérents
|
|
||||||
de semestres (RCS), en leur attribuant un nom et en détaillant
|
|
||||||
le nom des semestres qu'ils regroupent et l'affichage qui en sera fait
|
|
||||||
dans les tableurs de synthèse.
|
|
||||||
"""
|
|
||||||
|
|
||||||
TOUS_LES_RCS_AVEC_PLUSIEURS_SEM = [cle for cle in TYPES_RCS if not cle.startswith("S")]
|
|
||||||
TOUS_LES_RCS = list(TYPES_RCS.keys())
|
|
||||||
TOUS_LES_SEMESTRES = [cle for cle in TYPES_RCS if cle.startswith("S")]
|
|
||||||
|
|
||||||
|
|
||||||
class RCS:
|
|
||||||
"""Modélise un ensemble de semestres d'étudiants
|
|
||||||
associé à un type de regroupement cohérent de semestres
|
|
||||||
donné (par ex: 'S2', '3S', '2A').
|
|
||||||
|
|
||||||
Si le RCS est un semestre de type Si, stocke le (ou les)
|
|
||||||
formsemestres de numéro i qu'ont suivi l'étudiant pour atteindre le Si
|
|
||||||
(en général 1 si personnes n'a redoublé, mais 2 s'il y a des redoublants)
|
|
||||||
|
|
||||||
Pour le RCS de type iS ou iA (par ex, 3A=S1+S2+S3), elle identifie
|
|
||||||
les semestres que les étudiants ont suivis pour les amener jusqu'au semestre
|
|
||||||
terminal de la trajectoire (par ex: ici un S3).
|
|
||||||
|
|
||||||
Ces semestres peuvent être :
|
|
||||||
|
|
||||||
* des S1+S2+S1+S2+S3 si redoublement de la 1ère année
|
|
||||||
* des S1+S2+(année de césure)+S3 si césure, ...
|
|
||||||
|
|
||||||
Args:
|
|
||||||
nom_rcs: Un nom du RCS (par ex: '5S')
|
|
||||||
semestre_final: Le semestre final du RCS
|
|
||||||
"""
|
|
||||||
|
|
||||||
def __init__(self, nom_rcs: str, semestre_final: FormSemestre):
|
|
||||||
self.nom = nom_rcs
|
|
||||||
"""Nom du RCS"""
|
|
||||||
|
|
||||||
self.formsemestre_final = semestre_final
|
|
||||||
"""FormSemestre terminal du RCS"""
|
|
||||||
|
|
||||||
self.rcs_id = (nom_rcs, semestre_final.formsemestre_id)
|
|
||||||
"""Identifiant du RCS sous forme (nom_rcs, id du semestre_terminal)"""
|
|
||||||
|
|
||||||
self.semestres_aggreges = {}
|
|
||||||
"""Semestres regroupés dans le RCS"""
|
|
||||||
|
|
||||||
def add_semestres_a_aggreger(self, semestres: dict[int:FormSemestre]):
|
|
||||||
"""Ajout de semestres aux semestres à regrouper
|
|
||||||
|
|
||||||
Args:
|
|
||||||
semestres: Dictionnaire ``{fid: FormSemestre(fid)}`` à ajouter
|
|
||||||
"""
|
|
||||||
self.semestres_aggreges = self.semestres_aggreges | semestres
|
|
||||||
|
|
||||||
def get_repr(self, verbose=True) -> str:
|
|
||||||
"""Représentation textuelle d'un RCS
|
|
||||||
basé sur ses semestres aggrégés"""
|
|
||||||
|
|
||||||
noms = []
|
|
||||||
for fid in self.semestres_aggreges:
|
|
||||||
semestre = self.semestres_aggreges[fid]
|
|
||||||
noms.append(f"S{semestre.semestre_id}({fid})")
|
|
||||||
noms = sorted(noms)
|
|
||||||
title = f"""{self.nom} ({
|
|
||||||
self.formsemestre_final.formsemestre_id}) {self.formsemestre_final.date_fin.year}"""
|
|
||||||
if verbose and noms:
|
|
||||||
title += " - " + "+".join(noms)
|
|
||||||
return title
|
|
||||||
|
|
||||||
|
|
||||||
class RCSsJuryPE:
|
|
||||||
"""Classe centralisant toutes les regroupements cohérents de
|
|
||||||
semestres (RCS) des étudiants à prendre en compte dans un jury PE
|
|
||||||
|
|
||||||
Args:
|
|
||||||
annee_diplome: L'année de diplomation
|
|
||||||
"""
|
|
||||||
|
|
||||||
def __init__(self, annee_diplome: int):
|
|
||||||
self.annee_diplome = annee_diplome
|
|
||||||
"""Année de diplômation"""
|
|
||||||
|
|
||||||
self.rcss: dict[tuple:RCS] = {}
|
|
||||||
"""Ensemble des RCS recensés : {(nom_RCS, fid_terminal): RCS}"""
|
|
||||||
|
|
||||||
self.suivi: dict[int:str] = {}
|
|
||||||
"""Dictionnaire associant, pour chaque étudiant et pour chaque type de RCS,
|
|
||||||
son RCS : {etudid: {nom_RCS: RCS}}"""
|
|
||||||
|
|
||||||
def cree_rcss(self, etudiants: EtudiantsJuryPE):
|
|
||||||
"""Créé tous les RCS, au regard du cursus des étudiants
|
|
||||||
analysés + les mémorise dans les données de l'étudiant
|
|
||||||
|
|
||||||
Args:
|
|
||||||
etudiants: Les étudiants à prendre en compte dans le Jury PE
|
|
||||||
"""
|
|
||||||
|
|
||||||
for nom_rcs in pe_comp.TOUS_LES_SEMESTRES + TOUS_LES_RCS_AVEC_PLUSIEURS_SEM:
|
|
||||||
# L'aggrégat considéré (par ex: 3S=S1+S2+S3), son nom de son semestre
|
|
||||||
# terminal (par ex: S3) et son numéro (par ex: 3)
|
|
||||||
noms_semestre_de_aggregat = TYPES_RCS[nom_rcs]["aggregat"]
|
|
||||||
nom_semestre_terminal = noms_semestre_de_aggregat[-1]
|
|
||||||
|
|
||||||
for etudid in etudiants.cursus:
|
|
||||||
if etudid not in self.suivi:
|
|
||||||
self.suivi[etudid] = {
|
|
||||||
aggregat: None
|
|
||||||
for aggregat in pe_comp.TOUS_LES_SEMESTRES
|
|
||||||
+ TOUS_LES_RCS_AVEC_PLUSIEURS_SEM
|
|
||||||
}
|
|
||||||
|
|
||||||
# Le formsemestre terminal (dernier en date) associé au
|
|
||||||
# semestre marquant la fin de l'aggrégat
|
|
||||||
# (par ex: son dernier S3 en date)
|
|
||||||
semestres = etudiants.cursus[etudid][nom_semestre_terminal]
|
|
||||||
if semestres:
|
|
||||||
formsemestre_final = get_dernier_semestre_en_date(semestres)
|
|
||||||
|
|
||||||
# Ajout ou récupération de la trajectoire
|
|
||||||
trajectoire_id = (nom_rcs, formsemestre_final.formsemestre_id)
|
|
||||||
if trajectoire_id not in self.rcss:
|
|
||||||
trajectoire = RCS(nom_rcs, formsemestre_final)
|
|
||||||
self.rcss[trajectoire_id] = trajectoire
|
|
||||||
else:
|
|
||||||
trajectoire = self.rcss[trajectoire_id]
|
|
||||||
|
|
||||||
# La liste des semestres de l'étudiant à prendre en compte
|
|
||||||
# pour cette trajectoire
|
|
||||||
semestres_a_aggreger = get_rcs_etudiant(
|
|
||||||
etudiants.cursus[etudid], formsemestre_final, nom_rcs
|
|
||||||
)
|
|
||||||
|
|
||||||
# Ajout des semestres à la trajectoire
|
|
||||||
trajectoire.add_semestres_a_aggreger(semestres_a_aggreger)
|
|
||||||
|
|
||||||
# Mémoire la trajectoire suivie par l'étudiant
|
|
||||||
self.suivi[etudid][nom_rcs] = trajectoire
|
|
||||||
|
|
||||||
|
|
||||||
def get_rcs_etudiant(
|
|
||||||
semestres: dict[int:FormSemestre], formsemestre_final: FormSemestre, nom_rcs: str
|
|
||||||
) -> dict[int, FormSemestre]:
|
|
||||||
"""Ensemble des semestres parcourus par un étudiant, connaissant
|
|
||||||
les semestres de son cursus,
|
|
||||||
dans le cadre du RCS visé et ayant pour semestre terminal `formsemestre_final`.
|
|
||||||
|
|
||||||
Si le RCS est de type "Si", limite les semestres à ceux de numéro i.
|
|
||||||
Par ex: si formsemestre_terminal est un S3 et nom_agrregat "S3", ne prend en compte que les
|
|
||||||
semestres 3.
|
|
||||||
|
|
||||||
Si le RCS est de type "iA" ou "iS" (incluant plusieurs numéros de semestres), prend en
|
|
||||||
compte les dit numéros de semestres.
|
|
||||||
|
|
||||||
Par ex: si formsemestre_terminal est un S3, ensemble des S1,
|
|
||||||
S2, S3 suivi pour l'amener au S3 (il peut y avoir plusieurs S1,
|
|
||||||
ou S2, ou S3 s'il a redoublé).
|
|
||||||
|
|
||||||
Les semestres parcourus sont antérieurs (en terme de date de fin)
|
|
||||||
au formsemestre_terminal.
|
|
||||||
|
|
||||||
Args:
|
|
||||||
cursus: Dictionnaire {fid: FormSemestre(fid)} donnant l'ensemble des semestres
|
|
||||||
dans lesquels l'étudiant a été inscrit
|
|
||||||
formsemestre_final: le semestre final visé
|
|
||||||
nom_rcs: Nom du RCS visé
|
|
||||||
"""
|
|
||||||
numero_semestre_terminal = formsemestre_final.semestre_id
|
|
||||||
# semestres_significatifs = self.get_semestres_significatifs(etudid)
|
|
||||||
semestres_significatifs = {}
|
|
||||||
for i in range(1, pe_comp.NBRE_SEMESTRES_DIPLOMANT + 1):
|
|
||||||
semestres_significatifs = semestres_significatifs | semestres[f"S{i}"]
|
|
||||||
|
|
||||||
if nom_rcs.startswith("S"): # les semestres
|
|
||||||
numero_semestres_possibles = [numero_semestre_terminal]
|
|
||||||
elif nom_rcs.endswith("A"): # les années
|
|
||||||
numero_semestres_possibles = [
|
|
||||||
int(sem[-1]) for sem in TYPES_RCS[nom_rcs]["aggregat"]
|
|
||||||
]
|
|
||||||
assert numero_semestre_terminal in numero_semestres_possibles
|
|
||||||
else: # les xS = tous les semestres jusqu'à Sx (eg S1, S2, S3 pour un S3 terminal)
|
|
||||||
numero_semestres_possibles = list(range(1, numero_semestre_terminal + 1))
|
|
||||||
|
|
||||||
semestres_aggreges = {}
|
|
||||||
for fid, semestre in semestres_significatifs.items():
|
|
||||||
# Semestres parmi ceux de n° possibles & qui lui sont antérieurs
|
|
||||||
if (
|
|
||||||
semestre.semestre_id in numero_semestres_possibles
|
|
||||||
and semestre.date_fin <= formsemestre_final.date_fin
|
|
||||||
):
|
|
||||||
semestres_aggreges[fid] = semestre
|
|
||||||
return semestres_aggreges
|
|
||||||
|
|
||||||
|
|
||||||
def get_descr_rcs(nom_rcs: str) -> str:
|
|
||||||
"""Renvoie la description pour les tableurs de synthèse
|
|
||||||
Excel d'un nom de RCS"""
|
|
||||||
return TYPES_RCS[nom_rcs]["descr"]
|
|
289
app/pe/pe_rcss_jury.py
Normal file
289
app/pe/pe_rcss_jury.py
Normal file
|
@ -0,0 +1,289 @@
|
||||||
|
import app.pe.pe_comp
|
||||||
|
from app.pe.rcss import pe_rcs, pe_trajectoires, pe_rcsemx
|
||||||
|
import app.pe.pe_etudiant as pe_etudiant
|
||||||
|
import app.pe.pe_comp as pe_comp
|
||||||
|
from app.models import FormSemestre
|
||||||
|
from app.pe import pe_affichage
|
||||||
|
|
||||||
|
|
||||||
|
class RCSsJuryPE:
|
||||||
|
"""Classe centralisant tous les regroupements cohérents de
|
||||||
|
semestres (RCS) des étudiants à prendre en compte dans un jury PE
|
||||||
|
|
||||||
|
Args:
|
||||||
|
annee_diplome: L'année de diplomation
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, annee_diplome: int, etudiants: pe_etudiant.EtudiantsJuryPE):
|
||||||
|
self.annee_diplome = annee_diplome
|
||||||
|
"""Année de diplômation"""
|
||||||
|
|
||||||
|
self.etudiants = etudiants
|
||||||
|
"""Les étudiants recensés"""
|
||||||
|
|
||||||
|
self.trajectoires: dict[tuple(int, str) : pe_trajectoires.Trajectoire] = {}
|
||||||
|
"""Ensemble des trajectoires recensées (regroupement de (form)semestres BUT)"""
|
||||||
|
|
||||||
|
self.trajectoires_suivies: dict[int:dict] = {}
|
||||||
|
"""Dictionnaire associant, pour chaque étudiant et pour chaque type de RCS,
|
||||||
|
sa Trajectoire : {etudid: {nom_RCS: Trajectoire}}"""
|
||||||
|
|
||||||
|
self.semXs: dict[tuple(int, str) : pe_trajectoires.SemX] = {}
|
||||||
|
"""Ensemble des SemX recensés (regroupement de (form)semestre BUT de rang x) :
|
||||||
|
{(nom_RCS, fid_terminal): SemX}"""
|
||||||
|
|
||||||
|
self.semXs_suivis: dict[int:dict] = {}
|
||||||
|
"""Dictionnaire associant, pour chaque étudiant et pour chaque RCS de type Sx,
|
||||||
|
son SemX : {etudid: {nom_RCS_de_type_Sx: SemX}}"""
|
||||||
|
|
||||||
|
self.rcsemxs: dict[tuple(int, str) : pe_rcsemx.RCSemX] = {}
|
||||||
|
"""Ensemble des RCSemX (regroupement de SemX donnant les résultats aux sems de rang x)
|
||||||
|
recensés : {(nom_RCS, fid_terminal): RCSemX}"""
|
||||||
|
|
||||||
|
self.rcsemxs_suivis: dict[int:str] = {}
|
||||||
|
"""Dictionnaire associant, pour chaque étudiant et pour chaque type de RCS,
|
||||||
|
son RCSemX : {etudid: {nom_RCS: RCSemX}}"""
|
||||||
|
|
||||||
|
def cree_trajectoires(self):
|
||||||
|
"""Créé toutes les trajectoires, au regard du cursus des étudiants
|
||||||
|
analysés + les mémorise dans les données de l'étudiant
|
||||||
|
|
||||||
|
Args:
|
||||||
|
etudiants: Les étudiants à prendre en compte dans le Jury PE
|
||||||
|
"""
|
||||||
|
|
||||||
|
tous_les_aggregats = pe_rcs.TOUS_LES_RCS
|
||||||
|
|
||||||
|
for etudid in self.etudiants.cursus:
|
||||||
|
self.trajectoires_suivies[etudid] = self.etudiants.trajectoires[etudid]
|
||||||
|
|
||||||
|
for nom_rcs in tous_les_aggregats:
|
||||||
|
# L'aggrégat considéré (par ex: 3S=S1+S2+S3), son nom de son semestre
|
||||||
|
# terminal (par ex: S3) et son numéro (par ex: 3)
|
||||||
|
noms_semestres = pe_rcs.TYPES_RCS[nom_rcs]["aggregat"]
|
||||||
|
nom_semestre_final = noms_semestres[-1]
|
||||||
|
|
||||||
|
for etudid in self.etudiants.cursus:
|
||||||
|
# Le (ou les) semestre(s) marquant la fin du cursus de l'étudiant
|
||||||
|
sems_final = self.etudiants.cursus[etudid][nom_semestre_final]
|
||||||
|
if sems_final:
|
||||||
|
# Le formsemestre final (dernier en date) de l'étudiant,
|
||||||
|
# marquant la fin de son aggrégat (par ex: son dernier S3 en date)
|
||||||
|
formsemestre_final = app.pe.pe_comp.get_dernier_semestre_en_date(
|
||||||
|
sems_final
|
||||||
|
)
|
||||||
|
|
||||||
|
# Ajout (si nécessaire) et récupération du RCS associé
|
||||||
|
rcs_id = (nom_rcs, formsemestre_final.formsemestre_id)
|
||||||
|
if rcs_id not in self.trajectoires:
|
||||||
|
self.trajectoires[rcs_id] = pe_trajectoires.Trajectoire(
|
||||||
|
nom_rcs, formsemestre_final
|
||||||
|
)
|
||||||
|
rcs = self.trajectoires[rcs_id]
|
||||||
|
|
||||||
|
# La liste des semestres de l'étudiant à prendre en compte
|
||||||
|
# pour cette trajectoire
|
||||||
|
semestres_a_aggreger = get_rcs_etudiant(
|
||||||
|
self.etudiants.cursus[etudid], formsemestre_final, nom_rcs
|
||||||
|
)
|
||||||
|
|
||||||
|
# Ajout des semestres au RCS
|
||||||
|
rcs.add_semestres(semestres_a_aggreger)
|
||||||
|
|
||||||
|
# Mémorise le RCS suivi par l'étudiant
|
||||||
|
self.trajectoires_suivies[etudid][nom_rcs] = rcs
|
||||||
|
self.etudiants.trajectoires[etudid][nom_rcs] = rcs
|
||||||
|
|
||||||
|
def cree_semxs(self):
|
||||||
|
"""Créé les SemXs (trajectoires/combinaisons de semestre de même rang x),
|
||||||
|
en ne conservant dans les trajectoires que les regroupements
|
||||||
|
de type Sx"""
|
||||||
|
self.semXs = {}
|
||||||
|
for rcs_id, trajectoire in self.trajectoires.items():
|
||||||
|
if trajectoire.nom in pe_rcs.TOUS_LES_SEMESTRES:
|
||||||
|
self.semXs[rcs_id] = pe_trajectoires.SemX(trajectoire)
|
||||||
|
|
||||||
|
# L'association (pour chaque étudiant entre chaque Sx et le SemX associé)
|
||||||
|
self.semXs_suivis = {}
|
||||||
|
for etudid in self.etudiants.trajectoires:
|
||||||
|
self.semXs_suivis[etudid] = {
|
||||||
|
agregat: None for agregat in pe_rcs.TOUS_LES_SEMESTRES
|
||||||
|
}
|
||||||
|
for agregat in pe_rcs.TOUS_LES_SEMESTRES:
|
||||||
|
trajectoire = self.etudiants.trajectoires[etudid][agregat]
|
||||||
|
if trajectoire:
|
||||||
|
rcs_id = trajectoire.rcs_id
|
||||||
|
semX = self.semXs[rcs_id]
|
||||||
|
self.semXs_suivis[etudid][agregat] = semX
|
||||||
|
self.etudiants.semXs[etudid][agregat] = semX
|
||||||
|
|
||||||
|
def cree_rcsemxs(self, options={"moyennes_ues_rcues": True}):
|
||||||
|
"""Créé tous les RCSemXs, au regard du cursus des étudiants
|
||||||
|
analysés (trajectoires traduisant son parcours dans les
|
||||||
|
différents semestres) + les mémorise dans les données de l'étudiant
|
||||||
|
"""
|
||||||
|
self.rcsemxs_suivis = {}
|
||||||
|
self.rcsemxs = {}
|
||||||
|
|
||||||
|
if "moyennes_ues_rcues" in options and options["moyennes_ues_rcues"] == False:
|
||||||
|
# Pas de RCSemX généré
|
||||||
|
pe_affichage.pe_print("⚠️ Pas de RCSemX générés")
|
||||||
|
return
|
||||||
|
|
||||||
|
# Pour tous les étudiants du jury
|
||||||
|
pas_de_semestres = []
|
||||||
|
for etudid in self.trajectoires_suivies:
|
||||||
|
self.rcsemxs_suivis[etudid] = {
|
||||||
|
nom_rcs: None for nom_rcs in pe_rcs.TOUS_LES_RCS_AVEC_PLUSIEURS_SEM
|
||||||
|
}
|
||||||
|
|
||||||
|
# Pour chaque aggréggat de type xA ou Sx ou xS
|
||||||
|
for agregat in pe_rcs.TOUS_LES_RCS:
|
||||||
|
trajectoire = self.trajectoires_suivies[etudid][agregat]
|
||||||
|
if not trajectoire:
|
||||||
|
self.rcsemxs_suivis[etudid][agregat] = None
|
||||||
|
else:
|
||||||
|
# Identifiant de la trajectoire => donnera ceux du RCSemX
|
||||||
|
tid = trajectoire.rcs_id
|
||||||
|
# Ajout du RCSemX
|
||||||
|
if tid not in self.rcsemxs:
|
||||||
|
self.rcsemxs[tid] = pe_rcsemx.RCSemX(
|
||||||
|
trajectoire.nom, trajectoire.formsemestre_final
|
||||||
|
)
|
||||||
|
|
||||||
|
# Récupére les SemX (RC de type Sx) associés aux semestres de son cursus
|
||||||
|
# Par ex: dans S1+S2+S1+S2+S3 => les 2 S1 devient le SemX('S1'), les 2 S2 le SemX('S2'), etc..
|
||||||
|
|
||||||
|
# Les Sx pris en compte dans l'aggrégat
|
||||||
|
noms_sems_aggregat = pe_rcs.TYPES_RCS[agregat]["aggregat"]
|
||||||
|
|
||||||
|
semxs_a_aggreger = {}
|
||||||
|
for Sx in noms_sems_aggregat:
|
||||||
|
semestres_etudiants = self.etudiants.cursus[etudid][Sx]
|
||||||
|
if not semestres_etudiants:
|
||||||
|
pas_de_semestres += [
|
||||||
|
f"{Sx} pour {self.etudiants.identites[etudid].nomprenom}"
|
||||||
|
]
|
||||||
|
else:
|
||||||
|
semx_id = get_semx_from_semestres_aggreges(
|
||||||
|
self.semXs, semestres_etudiants
|
||||||
|
)
|
||||||
|
if not semx_id:
|
||||||
|
raise (
|
||||||
|
"Il manque un SemX pour créer les RCSemX dans cree_rcsemxs"
|
||||||
|
)
|
||||||
|
# Les SemX à ajouter au RCSemX
|
||||||
|
semxs_a_aggreger[semx_id] = self.semXs[semx_id]
|
||||||
|
|
||||||
|
# Ajout des SemX à ceux à aggréger dans le RCSemX
|
||||||
|
rcsemx = self.rcsemxs[tid]
|
||||||
|
rcsemx.add_semXs(semxs_a_aggreger)
|
||||||
|
|
||||||
|
# Mémoire du RCSemX aux informations de suivi de l'étudiant
|
||||||
|
self.rcsemxs_suivis[etudid][agregat] = rcsemx
|
||||||
|
self.etudiants.rcsemXs[etudid][agregat] = rcsemx
|
||||||
|
|
||||||
|
# Affichage des étudiants pour lesquels il manque un semestre
|
||||||
|
pas_de_semestres = sorted(set(pas_de_semestres))
|
||||||
|
if pas_de_semestres:
|
||||||
|
pe_affichage.pe_print("⚠️ Semestres manquants :")
|
||||||
|
pe_affichage.pe_print(
|
||||||
|
"\n".join([" " * 10 + psd for psd in pas_de_semestres])
|
||||||
|
)
|
||||||
|
|
||||||
|
|
||||||
|
def get_rcs_etudiant(
|
||||||
|
semestres: dict[int:FormSemestre], formsemestre_final: FormSemestre, nom_rcs: str
|
||||||
|
) -> dict[int, FormSemestre]:
|
||||||
|
"""Ensemble des semestres parcourus (trajectoire)
|
||||||
|
par un étudiant dans le cadre
|
||||||
|
d'un RCS de type Sx, iA ou iS et ayant pour semestre terminal `formsemestre_final`.
|
||||||
|
|
||||||
|
Par ex: pour un RCS "3S", dont le formsemestre_terminal est un S3, regroupe
|
||||||
|
le ou les S1 qu'il a suivi (1 ou 2 si redoublement) + le ou les S2 + le ou les S3.
|
||||||
|
|
||||||
|
Les semestres parcourus sont antérieurs (en terme de date de fin)
|
||||||
|
au formsemestre_terminal.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
cursus: Dictionnaire {fid: Formsemestre} donnant l'ensemble des semestres
|
||||||
|
dans lesquels l'étudiant a été inscrit
|
||||||
|
formsemestre_final: le semestre final visé
|
||||||
|
nom_rcs: Nom du RCS visé
|
||||||
|
"""
|
||||||
|
numero_semestre_terminal = formsemestre_final.semestre_id
|
||||||
|
# semestres_significatifs = self.get_semestres_significatifs(etudid)
|
||||||
|
semestres_significatifs = {}
|
||||||
|
for i in range(1, pe_comp.NBRE_SEMESTRES_DIPLOMANT + 1):
|
||||||
|
semestres_significatifs = semestres_significatifs | semestres[f"S{i}"]
|
||||||
|
|
||||||
|
if nom_rcs.startswith("S"): # les semestres
|
||||||
|
numero_semestres_possibles = [numero_semestre_terminal]
|
||||||
|
elif nom_rcs.endswith("A"): # les années
|
||||||
|
numero_semestres_possibles = [
|
||||||
|
int(sem[-1]) for sem in pe_rcs.TYPES_RCS[nom_rcs]["aggregat"]
|
||||||
|
]
|
||||||
|
assert numero_semestre_terminal in numero_semestres_possibles
|
||||||
|
else: # les xS = tous les semestres jusqu'à Sx (eg S1, S2, S3 pour un S3 terminal)
|
||||||
|
numero_semestres_possibles = list(range(1, numero_semestre_terminal + 1))
|
||||||
|
|
||||||
|
semestres_aggreges = {}
|
||||||
|
for fid, semestre in semestres_significatifs.items():
|
||||||
|
# Semestres parmi ceux de n° possibles & qui lui sont antérieurs
|
||||||
|
if (
|
||||||
|
semestre.semestre_id in numero_semestres_possibles
|
||||||
|
and semestre.date_fin <= formsemestre_final.date_fin
|
||||||
|
):
|
||||||
|
semestres_aggreges[fid] = semestre
|
||||||
|
return semestres_aggreges
|
||||||
|
|
||||||
|
|
||||||
|
def get_semx_from_semestres_aggreges(
|
||||||
|
semXs: dict[(str, int) : pe_trajectoires.SemX],
|
||||||
|
semestres_a_aggreger: dict[(str, int):FormSemestre],
|
||||||
|
) -> (str, int):
|
||||||
|
"""Partant d'un dictionnaire de SemX (de la forme
|
||||||
|
``{ (nom_rcs, fid): SemX }, et connaissant une liste
|
||||||
|
de (form)semestres suivis, renvoie l'identifiant
|
||||||
|
(nom_rcs, fid) du SemX qui lui correspond.
|
||||||
|
|
||||||
|
Le SemX qui correspond est tel que :
|
||||||
|
|
||||||
|
* le semestre final du SemX correspond au dernier semestre en date des
|
||||||
|
semestres_a_aggreger
|
||||||
|
* le rang du SemX est le même que celui des semestres_aggreges
|
||||||
|
* les semestres_a_aggreger (plus large, car contenant plusieurs
|
||||||
|
parcours), matchent avec les semestres aggrégés
|
||||||
|
par le SemX
|
||||||
|
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
rcf_id: L'identifiant du RCF trouvé
|
||||||
|
"""
|
||||||
|
assert semestres_a_aggreger, "Pas de semestres à aggréger"
|
||||||
|
rangs_a_aggreger = [sem.semestre_id for fid, sem in semestres_a_aggreger.items()]
|
||||||
|
assert (
|
||||||
|
len(set(rangs_a_aggreger)) == 1
|
||||||
|
), "Tous les sem à aggréger doivent être de même rang"
|
||||||
|
|
||||||
|
# Le dernier semestre des semestres à regrouper
|
||||||
|
dernier_sem_a_aggreger = pe_comp.get_dernier_semestre_en_date(semestres_a_aggreger)
|
||||||
|
|
||||||
|
semxs_ids = [] # Au cas où il y ait plusieurs solutions
|
||||||
|
for semx_id, semx in semXs.items():
|
||||||
|
# Même semestre final ?
|
||||||
|
if semx.get_formsemestre_id_final() == dernier_sem_a_aggreger.formsemestre_id:
|
||||||
|
# Les fids
|
||||||
|
fids_a_aggreger = set(semestres_a_aggreger.keys())
|
||||||
|
# Ceux du semx
|
||||||
|
fids_semx = set(semx.semestres_aggreges.keys())
|
||||||
|
if fids_a_aggreger.issubset(
|
||||||
|
fids_semx
|
||||||
|
): # tous les semestres du semx correspond à des sems de la trajectoire
|
||||||
|
semxs_ids += [semx_id]
|
||||||
|
if len(semxs_ids) == 0:
|
||||||
|
return None # rien trouvé
|
||||||
|
elif len(semxs_ids) == 1:
|
||||||
|
return semxs_ids[0]
|
||||||
|
else:
|
||||||
|
raise "Plusieurs solutions :)"
|
|
@ -1,217 +0,0 @@
|
||||||
# -*- mode: python -*-
|
|
||||||
# -*- coding: utf-8 -*-
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
#
|
|
||||||
# Gestion scolarite IUT
|
|
||||||
#
|
|
||||||
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
|
||||||
#
|
|
||||||
# This program is free software; you can redistribute it and/or modify
|
|
||||||
# it under the terms of the GNU General Public License as published by
|
|
||||||
# the Free Software Foundation; either version 2 of the License, or
|
|
||||||
# (at your option) any later version.
|
|
||||||
#
|
|
||||||
# This program is distributed in the hope that it will be useful,
|
|
||||||
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
|
||||||
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
|
||||||
# GNU General Public License for more details.
|
|
||||||
#
|
|
||||||
# You should have received a copy of the GNU General Public License
|
|
||||||
# along with this program; if not, write to the Free Software
|
|
||||||
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
|
||||||
#
|
|
||||||
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
|
||||||
#
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
# Module "Avis de poursuite d'étude"
|
|
||||||
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
"""
|
|
||||||
Created on Fri Sep 9 09:15:05 2016
|
|
||||||
|
|
||||||
@author: barasc
|
|
||||||
"""
|
|
||||||
|
|
||||||
from app.comp.res_sem import load_formsemestre_results
|
|
||||||
from app.pe.pe_semtag import SemestreTag
|
|
||||||
import pandas as pd
|
|
||||||
import numpy as np
|
|
||||||
from app.pe.pe_rcs import RCS
|
|
||||||
|
|
||||||
from app.pe.pe_tabletags import TableTag, MoyenneTag
|
|
||||||
|
|
||||||
|
|
||||||
class RCSTag(TableTag):
|
|
||||||
def __init__(
|
|
||||||
self, rcs: RCS, semestres_taggues: dict[int, SemestreTag]
|
|
||||||
):
|
|
||||||
"""Calcule les moyennes par tag d'une combinaison de semestres
|
|
||||||
(RCS), pour extraire les classements par tag pour un
|
|
||||||
groupe d'étudiants donnés. Le groupe d'étudiants est formé par ceux ayant tous
|
|
||||||
participé au semestre terminal.
|
|
||||||
|
|
||||||
|
|
||||||
Args:
|
|
||||||
rcs: Un RCS (identifié par un nom et l'id de son semestre terminal)
|
|
||||||
semestres_taggues: Les données sur les semestres taggués
|
|
||||||
"""
|
|
||||||
TableTag.__init__(self)
|
|
||||||
|
|
||||||
|
|
||||||
self.rcs_id = rcs.rcs_id
|
|
||||||
"""Identifiant du RCS taggué (identique au RCS sur lequel il s'appuie)"""
|
|
||||||
|
|
||||||
self.rcs = rcs
|
|
||||||
"""RCS associé au RCS taggué"""
|
|
||||||
|
|
||||||
self.nom = self.get_repr()
|
|
||||||
"""Représentation textuelle du RCS taggué"""
|
|
||||||
|
|
||||||
self.formsemestre_terminal = rcs.formsemestre_final
|
|
||||||
"""Le formsemestre terminal"""
|
|
||||||
|
|
||||||
# Les résultats du formsemestre terminal
|
|
||||||
nt = load_formsemestre_results(self.formsemestre_terminal)
|
|
||||||
|
|
||||||
self.semestres_aggreges = rcs.semestres_aggreges
|
|
||||||
"""Les semestres aggrégés"""
|
|
||||||
|
|
||||||
self.semestres_tags_aggreges = {}
|
|
||||||
"""Les semestres tags associés aux semestres aggrégés"""
|
|
||||||
for frmsem_id in self.semestres_aggreges:
|
|
||||||
try:
|
|
||||||
self.semestres_tags_aggreges[frmsem_id] = semestres_taggues[frmsem_id]
|
|
||||||
except:
|
|
||||||
raise ValueError("Semestres taggués manquants")
|
|
||||||
|
|
||||||
"""Les étudiants (état civil + cursus connu)"""
|
|
||||||
self.etuds = nt.etuds
|
|
||||||
|
|
||||||
# assert self.etuds == trajectoire.suivi # manque-t-il des étudiants ?
|
|
||||||
self.etudiants = {etud.etudid: etud.etat_civil for etud in self.etuds}
|
|
||||||
|
|
||||||
self.tags_sorted = self.do_taglist()
|
|
||||||
"""Tags extraits de tous les semestres"""
|
|
||||||
|
|
||||||
self.notes_cube = self.compute_notes_cube()
|
|
||||||
"""Cube de notes"""
|
|
||||||
|
|
||||||
etudids = list(self.etudiants.keys())
|
|
||||||
self.notes = compute_tag_moy(self.notes_cube, etudids, self.tags_sorted)
|
|
||||||
"""Calcul les moyennes par tag sous forme d'un dataframe"""
|
|
||||||
|
|
||||||
self.moyennes_tags: dict[str, MoyenneTag] = {}
|
|
||||||
"""Synthétise les moyennes/classements par tag (qu'ils soient personnalisé ou de compétences)"""
|
|
||||||
for tag in self.tags_sorted:
|
|
||||||
moy_gen_tag = self.notes[tag]
|
|
||||||
self.moyennes_tags[tag] = MoyenneTag(tag, moy_gen_tag)
|
|
||||||
|
|
||||||
def __eq__(self, other):
|
|
||||||
"""Egalité de 2 RCS taggués sur la base de leur identifiant"""
|
|
||||||
return self.rcs_id == other.rcs_id
|
|
||||||
|
|
||||||
def get_repr(self, verbose=False) -> str:
|
|
||||||
"""Renvoie une représentation textuelle (celle de la trajectoire sur laquelle elle
|
|
||||||
est basée)"""
|
|
||||||
return self.rcs.get_repr(verbose=verbose)
|
|
||||||
|
|
||||||
def compute_notes_cube(self):
|
|
||||||
"""Construit le cube de notes (etudid x tags x semestre_aggregé)
|
|
||||||
nécessaire au calcul des moyennes de l'aggrégat
|
|
||||||
"""
|
|
||||||
# nb_tags = len(self.tags_sorted)
|
|
||||||
# nb_etudiants = len(self.etuds)
|
|
||||||
# nb_semestres = len(self.semestres_tags_aggreges)
|
|
||||||
|
|
||||||
# Index du cube (etudids -> dim 0, tags -> dim 1)
|
|
||||||
etudids = [etud.etudid for etud in self.etuds]
|
|
||||||
tags = self.tags_sorted
|
|
||||||
semestres_id = list(self.semestres_tags_aggreges.keys())
|
|
||||||
|
|
||||||
dfs = {}
|
|
||||||
|
|
||||||
for frmsem_id in semestres_id:
|
|
||||||
# Partant d'un dataframe vierge
|
|
||||||
df = pd.DataFrame(np.nan, index=etudids, columns=tags)
|
|
||||||
|
|
||||||
# Charge les notes du semestre tag
|
|
||||||
notes = self.semestres_tags_aggreges[frmsem_id].notes
|
|
||||||
|
|
||||||
# Les étudiants & les tags commun au dataframe final et aux notes du semestre)
|
|
||||||
etudids_communs = df.index.intersection(notes.index)
|
|
||||||
tags_communs = df.columns.intersection(notes.columns)
|
|
||||||
|
|
||||||
# Injecte les notes par tag
|
|
||||||
df.loc[etudids_communs, tags_communs] = notes.loc[
|
|
||||||
etudids_communs, tags_communs
|
|
||||||
]
|
|
||||||
|
|
||||||
# Supprime tout ce qui n'est pas numérique
|
|
||||||
for col in df.columns:
|
|
||||||
df[col] = pd.to_numeric(df[col], errors="coerce")
|
|
||||||
|
|
||||||
# Stocke le df
|
|
||||||
dfs[frmsem_id] = df
|
|
||||||
|
|
||||||
"""Réunit les notes sous forme d'un cube etdids x tags x semestres"""
|
|
||||||
semestres_x_etudids_x_tags = [dfs[fid].values for fid in dfs]
|
|
||||||
etudids_x_tags_x_semestres = np.stack(semestres_x_etudids_x_tags, axis=-1)
|
|
||||||
|
|
||||||
return etudids_x_tags_x_semestres
|
|
||||||
|
|
||||||
def do_taglist(self):
|
|
||||||
"""Synthétise les tags à partir des semestres (taggués) aggrégés
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Une liste de tags triés par ordre alphabétique
|
|
||||||
"""
|
|
||||||
tags = []
|
|
||||||
for frmsem_id in self.semestres_tags_aggreges:
|
|
||||||
tags.extend(self.semestres_tags_aggreges[frmsem_id].tags_sorted)
|
|
||||||
return sorted(set(tags))
|
|
||||||
|
|
||||||
|
|
||||||
def compute_tag_moy(set_cube: np.array, etudids: list, tags: list):
|
|
||||||
"""Calcul de la moyenne par tag sur plusieurs semestres.
|
|
||||||
La moyenne est un nombre (note/20), ou NaN si pas de notes disponibles
|
|
||||||
|
|
||||||
*Remarque* : Adaptation de moy_ue.compute_ue_moys_apc au cas des moyennes de tag
|
|
||||||
par aggrégat de plusieurs semestres.
|
|
||||||
|
|
||||||
Args:
|
|
||||||
set_cube: notes moyennes aux modules ndarray
|
|
||||||
(etuds x modimpls x UEs), des floats avec des NaN
|
|
||||||
etudids: liste des étudiants (dim. 0 du cube)
|
|
||||||
tags: liste des tags (dim. 1 du cube)
|
|
||||||
Returns:
|
|
||||||
Un DataFrame avec pour columns les moyennes par tags,
|
|
||||||
et pour rows les etudid
|
|
||||||
"""
|
|
||||||
nb_etuds, nb_tags, nb_semestres = set_cube.shape
|
|
||||||
assert nb_etuds == len(etudids)
|
|
||||||
assert nb_tags == len(tags)
|
|
||||||
|
|
||||||
# Quelles entrées du cube contiennent des notes ?
|
|
||||||
mask = ~np.isnan(set_cube)
|
|
||||||
|
|
||||||
# Enlève les NaN du cube pour les entrées manquantes
|
|
||||||
set_cube_no_nan = np.nan_to_num(set_cube, nan=0.0)
|
|
||||||
|
|
||||||
# Les moyennes par tag
|
|
||||||
with np.errstate(invalid="ignore"): # ignore les 0/0 (-> NaN)
|
|
||||||
etud_moy_tag = np.sum(set_cube_no_nan, axis=2) / np.sum(mask, axis=2)
|
|
||||||
|
|
||||||
# Le dataFrame
|
|
||||||
etud_moy_tag_df = pd.DataFrame(
|
|
||||||
etud_moy_tag,
|
|
||||||
index=etudids, # les etudids
|
|
||||||
columns=tags, # les tags
|
|
||||||
)
|
|
||||||
|
|
||||||
etud_moy_tag_df.fillna(np.nan)
|
|
||||||
|
|
||||||
return etud_moy_tag_df
|
|
|
@ -1,310 +0,0 @@
|
||||||
# -*- mode: python -*-
|
|
||||||
# -*- coding: utf-8 -*-
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
#
|
|
||||||
# Gestion scolarite IUT
|
|
||||||
#
|
|
||||||
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
|
||||||
#
|
|
||||||
# This program is free software; you can redistribute it and/or modify
|
|
||||||
# it under the terms of the GNU General Public License as published by
|
|
||||||
# the Free Software Foundation; either version 2 of the License, or
|
|
||||||
# (at your option) any later version.
|
|
||||||
#
|
|
||||||
# This program is distributed in the hope that it will be useful,
|
|
||||||
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
|
||||||
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
|
||||||
# GNU General Public License for more details.
|
|
||||||
#
|
|
||||||
# You should have received a copy of the GNU General Public License
|
|
||||||
# along with this program; if not, write to the Free Software
|
|
||||||
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
|
||||||
#
|
|
||||||
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
|
||||||
#
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
# Module "Avis de poursuite d'étude"
|
|
||||||
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
"""
|
|
||||||
Created on Fri Sep 9 09:15:05 2016
|
|
||||||
|
|
||||||
@author: barasc
|
|
||||||
"""
|
|
||||||
import pandas as pd
|
|
||||||
|
|
||||||
import app.pe.pe_etudiant
|
|
||||||
from app import db, ScoValueError
|
|
||||||
from app import comp
|
|
||||||
from app.comp.res_sem import load_formsemestre_results
|
|
||||||
from app.models import FormSemestre
|
|
||||||
from app.models.moduleimpls import ModuleImpl
|
|
||||||
import app.pe.pe_affichage as pe_affichage
|
|
||||||
from app.pe.pe_tabletags import TableTag, MoyenneTag
|
|
||||||
from app.scodoc import sco_tag_module
|
|
||||||
from app.scodoc.codes_cursus import UE_SPORT
|
|
||||||
|
|
||||||
|
|
||||||
class SemestreTag(TableTag):
|
|
||||||
"""
|
|
||||||
Un SemestreTag représente les résultats des étudiants à un semestre, en donnant
|
|
||||||
accès aux moyennes par tag.
|
|
||||||
Il s'appuie principalement sur FormSemestre et sur ResultatsSemestreBUT.
|
|
||||||
"""
|
|
||||||
|
|
||||||
def __init__(self, formsemestre_id: int):
|
|
||||||
"""
|
|
||||||
Args:
|
|
||||||
formsemestre_id: Identifiant du ``FormSemestre`` sur lequel il se base
|
|
||||||
"""
|
|
||||||
TableTag.__init__(self)
|
|
||||||
|
|
||||||
# Le semestre
|
|
||||||
self.formsemestre_id = formsemestre_id
|
|
||||||
self.formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
|
||||||
|
|
||||||
# Le nom du semestre taggué
|
|
||||||
self.nom = self.get_repr()
|
|
||||||
|
|
||||||
# Les résultats du semestre
|
|
||||||
self.nt = load_formsemestre_results(self.formsemestre)
|
|
||||||
|
|
||||||
# Les étudiants
|
|
||||||
self.etuds = self.nt.etuds
|
|
||||||
self.etudiants = {etud.etudid: etud.etat_civil for etud in self.etuds}
|
|
||||||
|
|
||||||
# Les notes, les modules implémentés triés, les étudiants, les coeffs,
|
|
||||||
# récupérés notamment de py:mod:`res_but`
|
|
||||||
self.sem_cube = self.nt.sem_cube
|
|
||||||
self.modimpls_sorted = self.nt.formsemestre.modimpls_sorted
|
|
||||||
self.modimpl_coefs_df = self.nt.modimpl_coefs_df
|
|
||||||
|
|
||||||
# Les inscriptions au module et les dispenses d'UE
|
|
||||||
self.modimpl_inscr_df = self.nt.modimpl_inscr_df
|
|
||||||
self.ues = self.nt.ues
|
|
||||||
self.ues_inscr_parcours_df = self.nt.load_ues_inscr_parcours()
|
|
||||||
self.dispense_ues = self.nt.dispense_ues
|
|
||||||
|
|
||||||
# Les tags :
|
|
||||||
## Saisis par l'utilisateur
|
|
||||||
tags_personnalises = get_synthese_tags_personnalises_semestre(
|
|
||||||
self.nt.formsemestre
|
|
||||||
)
|
|
||||||
noms_tags_perso = list(set(tags_personnalises.keys()))
|
|
||||||
|
|
||||||
## Déduit des compétences
|
|
||||||
dict_ues_competences = get_noms_competences_from_ues(self.nt.formsemestre)
|
|
||||||
noms_tags_comp = list(set(dict_ues_competences.values()))
|
|
||||||
noms_tags_auto = ["but"] + noms_tags_comp
|
|
||||||
self.tags = noms_tags_perso + noms_tags_auto
|
|
||||||
"""Tags du semestre taggué"""
|
|
||||||
|
|
||||||
## Vérifie l'unicité des tags
|
|
||||||
if len(set(self.tags)) != len(self.tags):
|
|
||||||
intersection = list(set(noms_tags_perso) & set(noms_tags_auto))
|
|
||||||
liste_intersection = "\n".join(
|
|
||||||
[f"<li><code>{tag}</code></li>" for tag in intersection]
|
|
||||||
)
|
|
||||||
s = "s" if len(intersection) > 0 else ""
|
|
||||||
message = f"""Erreur dans le module PE : Un des tags saisis dans votre
|
|
||||||
programme de formation fait parti des tags réservés. En particulier,
|
|
||||||
votre semestre <em>{self.formsemestre.titre_annee()}</em>
|
|
||||||
contient le{s} tag{s} réservé{s} suivant :
|
|
||||||
<ul>
|
|
||||||
{liste_intersection}
|
|
||||||
</ul>
|
|
||||||
Modifiez votre programme de formation pour le{s} supprimer.
|
|
||||||
Il{s} ser{'ont' if s else 'a'} automatiquement à vos documents de poursuites d'études.
|
|
||||||
"""
|
|
||||||
raise ScoValueError(message)
|
|
||||||
|
|
||||||
# Calcul des moyennes & les classements de chaque étudiant à chaque tag
|
|
||||||
self.moyennes_tags = {}
|
|
||||||
|
|
||||||
for tag in tags_personnalises:
|
|
||||||
# pe_affichage.pe_print(f" -> Traitement du tag {tag}")
|
|
||||||
moy_gen_tag = self.compute_moyenne_tag(tag, tags_personnalises)
|
|
||||||
self.moyennes_tags[tag] = MoyenneTag(tag, moy_gen_tag)
|
|
||||||
|
|
||||||
# Ajoute les moyennes générales de BUT pour le semestre considéré
|
|
||||||
moy_gen_but = self.nt.etud_moy_gen
|
|
||||||
self.moyennes_tags["but"] = MoyenneTag("but", moy_gen_but)
|
|
||||||
|
|
||||||
# Ajoute les moyennes par compétence
|
|
||||||
for ue_id, competence in dict_ues_competences.items():
|
|
||||||
if competence not in self.moyennes_tags:
|
|
||||||
moy_ue = self.nt.etud_moy_ue[ue_id]
|
|
||||||
self.moyennes_tags[competence] = MoyenneTag(competence, moy_ue)
|
|
||||||
|
|
||||||
self.tags_sorted = self.get_all_tags()
|
|
||||||
"""Tags (personnalisés+compétences) par ordre alphabétique"""
|
|
||||||
|
|
||||||
# Synthétise l'ensemble des moyennes dans un dataframe
|
|
||||||
|
|
||||||
self.notes = self.df_notes()
|
|
||||||
"""Dataframe synthétique des notes par tag"""
|
|
||||||
|
|
||||||
pe_affichage.pe_print(
|
|
||||||
f" => Traitement des tags {', '.join(self.tags_sorted)}"
|
|
||||||
)
|
|
||||||
|
|
||||||
def get_repr(self):
|
|
||||||
"""Nom affiché pour le semestre taggué"""
|
|
||||||
return app.pe.pe_etudiant.nom_semestre_etape(self.formsemestre, avec_fid=True)
|
|
||||||
|
|
||||||
def compute_moyenne_tag(self, tag: str, tags_infos: dict) -> pd.Series:
|
|
||||||
"""Calcule la moyenne des étudiants pour le tag indiqué,
|
|
||||||
pour ce SemestreTag, en ayant connaissance des informations sur
|
|
||||||
les tags (dictionnaire donnant les coeff de repondération)
|
|
||||||
|
|
||||||
Sont pris en compte les modules implémentés associés au tag,
|
|
||||||
avec leur éventuel coefficient de **repondération**, en utilisant les notes
|
|
||||||
chargées pour ce SemestreTag.
|
|
||||||
|
|
||||||
Force ou non le calcul de la moyenne lorsque des notes sont manquantes.
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
La série des moyennes
|
|
||||||
"""
|
|
||||||
|
|
||||||
# Adaptation du mask de calcul des moyennes au tag visé
|
|
||||||
modimpls_mask = [
|
|
||||||
modimpl.module.ue.type != UE_SPORT
|
|
||||||
for modimpl in self.formsemestre.modimpls_sorted
|
|
||||||
]
|
|
||||||
|
|
||||||
# Désactive tous les modules qui ne sont pas pris en compte pour ce tag
|
|
||||||
for i, modimpl in enumerate(self.formsemestre.modimpls_sorted):
|
|
||||||
if modimpl.moduleimpl_id not in tags_infos[tag]:
|
|
||||||
modimpls_mask[i] = False
|
|
||||||
|
|
||||||
# Applique la pondération des coefficients
|
|
||||||
modimpl_coefs_ponderes_df = self.modimpl_coefs_df.copy()
|
|
||||||
for modimpl_id in tags_infos[tag]:
|
|
||||||
ponderation = tags_infos[tag][modimpl_id]["ponderation"]
|
|
||||||
modimpl_coefs_ponderes_df[modimpl_id] *= ponderation
|
|
||||||
|
|
||||||
# Calcule les moyennes pour le tag visé dans chaque UE (dataframe etudid x ues)#
|
|
||||||
moyennes_ues_tag = comp.moy_ue.compute_ue_moys_apc(
|
|
||||||
self.sem_cube,
|
|
||||||
self.etuds,
|
|
||||||
self.formsemestre.modimpls_sorted,
|
|
||||||
self.modimpl_inscr_df,
|
|
||||||
modimpl_coefs_ponderes_df,
|
|
||||||
modimpls_mask,
|
|
||||||
self.dispense_ues,
|
|
||||||
block=self.formsemestre.block_moyennes,
|
|
||||||
)
|
|
||||||
|
|
||||||
# Les ects
|
|
||||||
ects = self.ues_inscr_parcours_df.fillna(0.0) * [
|
|
||||||
ue.ects for ue in self.ues if ue.type != UE_SPORT
|
|
||||||
]
|
|
||||||
|
|
||||||
# Calcule la moyenne générale dans le semestre (pondérée par le ECTS)
|
|
||||||
moy_gen_tag = comp.moy_sem.compute_sem_moys_apc_using_ects(
|
|
||||||
moyennes_ues_tag,
|
|
||||||
ects,
|
|
||||||
formation_id=self.formsemestre.formation_id,
|
|
||||||
skip_empty_ues=True,
|
|
||||||
)
|
|
||||||
|
|
||||||
return moy_gen_tag
|
|
||||||
|
|
||||||
|
|
||||||
def get_moduleimpl(modimpl_id) -> dict:
|
|
||||||
"""Renvoie l'objet modimpl dont l'id est modimpl_id"""
|
|
||||||
modimpl = db.session.get(ModuleImpl, modimpl_id)
|
|
||||||
if modimpl:
|
|
||||||
return modimpl
|
|
||||||
return None
|
|
||||||
|
|
||||||
|
|
||||||
def get_moy_ue_from_nt(nt, etudid, modimpl_id) -> float:
|
|
||||||
"""Renvoie la moyenne de l'UE d'un etudid dans laquelle se trouve
|
|
||||||
le module de modimpl_id
|
|
||||||
"""
|
|
||||||
# ré-écrit
|
|
||||||
modimpl = get_moduleimpl(modimpl_id) # le module
|
|
||||||
ue_status = nt.get_etud_ue_status(etudid, modimpl.module.ue.id)
|
|
||||||
if ue_status is None:
|
|
||||||
return None
|
|
||||||
return ue_status["moy"]
|
|
||||||
|
|
||||||
|
|
||||||
def get_synthese_tags_personnalises_semestre(formsemestre: FormSemestre):
|
|
||||||
"""Etant données les implémentations des modules du semestre (modimpls),
|
|
||||||
synthétise les tags renseignés dans le programme pédagogique &
|
|
||||||
associés aux modules du semestre,
|
|
||||||
en les associant aux modimpls qui les concernent (modimpl_id) et
|
|
||||||
aucoeff et pondération fournie avec le tag (par défaut 1 si non indiquée)).
|
|
||||||
|
|
||||||
|
|
||||||
Args:
|
|
||||||
formsemestre: Le formsemestre à la base de la recherche des tags
|
|
||||||
|
|
||||||
Return:
|
|
||||||
Un dictionnaire de tags
|
|
||||||
"""
|
|
||||||
synthese_tags = {}
|
|
||||||
|
|
||||||
# Instance des modules du semestre
|
|
||||||
modimpls = formsemestre.modimpls_sorted
|
|
||||||
|
|
||||||
for modimpl in modimpls:
|
|
||||||
modimpl_id = modimpl.id
|
|
||||||
|
|
||||||
# Liste des tags pour le module concerné
|
|
||||||
tags = sco_tag_module.module_tag_list(modimpl.module.id)
|
|
||||||
|
|
||||||
# Traitement des tags recensés, chacun pouvant étant de la forme
|
|
||||||
# "mathématiques", "théorie", "pe:0", "maths:2"
|
|
||||||
for tag in tags:
|
|
||||||
# Extraction du nom du tag et du coeff de pondération
|
|
||||||
(tagname, ponderation) = sco_tag_module.split_tagname_coeff(tag)
|
|
||||||
|
|
||||||
# Ajout d'une clé pour le tag
|
|
||||||
if tagname not in synthese_tags:
|
|
||||||
synthese_tags[tagname] = {}
|
|
||||||
|
|
||||||
# Ajout du module (modimpl) au tagname considéré
|
|
||||||
synthese_tags[tagname][modimpl_id] = {
|
|
||||||
"modimpl": modimpl, # les données sur le module
|
|
||||||
# "coeff": modimpl.module.coefficient, # le coeff du module dans le semestre
|
|
||||||
"ponderation": ponderation, # la pondération demandée pour le tag sur le module
|
|
||||||
# "module_code": modimpl.module.code, # le code qui doit se retrouver à l'identique dans des ue capitalisee
|
|
||||||
# "ue_id": modimpl.module.ue.id, # les données sur l'ue
|
|
||||||
# "ue_code": modimpl.module.ue.ue_code,
|
|
||||||
# "ue_acronyme": modimpl.module.ue.acronyme,
|
|
||||||
}
|
|
||||||
|
|
||||||
return synthese_tags
|
|
||||||
|
|
||||||
|
|
||||||
def get_noms_competences_from_ues(formsemestre: FormSemestre) -> dict[int, str]:
|
|
||||||
"""Partant d'un formsemestre, extrait le nom des compétences associés
|
|
||||||
à (ou aux) parcours des étudiants du formsemestre.
|
|
||||||
|
|
||||||
Ignore les UEs non associées à un niveau de compétence.
|
|
||||||
|
|
||||||
Args:
|
|
||||||
formsemestre: Un FormSemestre
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Dictionnaire {ue_id: nom_competence} lisant tous les noms des compétences
|
|
||||||
en les raccrochant à leur ue
|
|
||||||
"""
|
|
||||||
# Les résultats du semestre
|
|
||||||
nt = load_formsemestre_results(formsemestre)
|
|
||||||
|
|
||||||
noms_competences = {}
|
|
||||||
for ue in nt.ues:
|
|
||||||
if ue.niveau_competence and ue.type != UE_SPORT:
|
|
||||||
# ?? inutilisé ordre = ue.niveau_competence.ordre
|
|
||||||
nom = ue.niveau_competence.competence.titre
|
|
||||||
noms_competences[ue.ue_id] = f"comp. {nom}"
|
|
||||||
return noms_competences
|
|
|
@ -1,263 +0,0 @@
|
||||||
# -*- mode: python -*-
|
|
||||||
# -*- coding: utf-8 -*-
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
#
|
|
||||||
# Gestion scolarite IUT
|
|
||||||
#
|
|
||||||
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
|
||||||
#
|
|
||||||
# This program is free software; you can redistribute it and/or modify
|
|
||||||
# it under the terms of the GNU General Public License as published by
|
|
||||||
# the Free Software Foundation; either version 2 of the License, or
|
|
||||||
# (at your option) any later version.
|
|
||||||
#
|
|
||||||
# This program is distributed in the hope that it will be useful,
|
|
||||||
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
|
||||||
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
|
||||||
# GNU General Public License for more details.
|
|
||||||
#
|
|
||||||
# You should have received a copy of the GNU General Public License
|
|
||||||
# along with this program; if not, write to the Free Software
|
|
||||||
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
|
||||||
#
|
|
||||||
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
|
||||||
#
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
##############################################################################
|
|
||||||
# Module "Avis de poursuite d'étude"
|
|
||||||
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
|
||||||
##############################################################################
|
|
||||||
|
|
||||||
|
|
||||||
"""
|
|
||||||
Created on Thu Sep 8 09:36:33 2016
|
|
||||||
|
|
||||||
@author: barasc
|
|
||||||
"""
|
|
||||||
|
|
||||||
import datetime
|
|
||||||
import numpy as np
|
|
||||||
|
|
||||||
from app import ScoValueError
|
|
||||||
from app.comp.moy_sem import comp_ranks_series
|
|
||||||
from app.pe import pe_affichage
|
|
||||||
from app.pe.pe_affichage import SANS_NOTE
|
|
||||||
from app.scodoc import sco_utils as scu
|
|
||||||
import pandas as pd
|
|
||||||
|
|
||||||
|
|
||||||
TAGS_RESERVES = ["but"]
|
|
||||||
|
|
||||||
|
|
||||||
class MoyenneTag:
|
|
||||||
def __init__(self, tag: str, notes: pd.Series):
|
|
||||||
"""Classe centralisant la synthèse des moyennes/classements d'une série
|
|
||||||
d'étudiants à un tag donné, en stockant un dictionnaire :
|
|
||||||
|
|
||||||
``
|
|
||||||
{
|
|
||||||
"notes": la Serie pandas des notes (float),
|
|
||||||
"classements": la Serie pandas des classements (float),
|
|
||||||
"min": la note minimum,
|
|
||||||
"max": la note maximum,
|
|
||||||
"moy": la moyenne,
|
|
||||||
"nb_inscrits": le nombre d'étudiants ayant une note,
|
|
||||||
}
|
|
||||||
``
|
|
||||||
|
|
||||||
Args:
|
|
||||||
tag: Un tag
|
|
||||||
note: Une série de notes (moyenne) sous forme d'un pd.Series()
|
|
||||||
"""
|
|
||||||
self.tag = tag
|
|
||||||
"""Le tag associé à la moyenne"""
|
|
||||||
self.etudids = list(notes.index) # calcul à venir
|
|
||||||
"""Les id des étudiants"""
|
|
||||||
self.inscrits_ids = notes[notes.notnull()].index.to_list()
|
|
||||||
"""Les id des étudiants dont la moyenne est non nulle"""
|
|
||||||
self.df: pd.DataFrame = self.comp_moy_et_stat(notes)
|
|
||||||
"""Le dataframe retraçant les moyennes/classements/statistiques"""
|
|
||||||
self.synthese = self.to_dict()
|
|
||||||
"""La synthèse (dictionnaire) des notes/classements/statistiques"""
|
|
||||||
|
|
||||||
def __eq__(self, other):
|
|
||||||
"""Egalité de deux MoyenneTag lorsque leur tag sont identiques"""
|
|
||||||
return self.tag == other.tag
|
|
||||||
|
|
||||||
def comp_moy_et_stat(self, notes: pd.Series) -> dict:
|
|
||||||
"""Calcule et structure les données nécessaires au PE pour une série
|
|
||||||
de notes (souvent une moyenne par tag) dans un dictionnaire spécifique.
|
|
||||||
|
|
||||||
Partant des notes, sont calculés les classements (en ne tenant compte
|
|
||||||
que des notes non nulles).
|
|
||||||
|
|
||||||
Args:
|
|
||||||
notes: Une série de notes (avec des éventuels NaN)
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Un dictionnaire stockant les notes, les classements, le min,
|
|
||||||
le max, la moyenne, le nb de notes (donc d'inscrits)
|
|
||||||
"""
|
|
||||||
df = pd.DataFrame(
|
|
||||||
np.nan,
|
|
||||||
index=self.etudids,
|
|
||||||
columns=[
|
|
||||||
"note",
|
|
||||||
"classement",
|
|
||||||
"rang",
|
|
||||||
"min",
|
|
||||||
"max",
|
|
||||||
"moy",
|
|
||||||
"nb_etuds",
|
|
||||||
"nb_inscrits",
|
|
||||||
],
|
|
||||||
)
|
|
||||||
|
|
||||||
# Supprime d'éventuelles chaines de caractères dans les notes
|
|
||||||
notes = pd.to_numeric(notes, errors="coerce")
|
|
||||||
df["note"] = notes
|
|
||||||
|
|
||||||
# Les nb d'étudiants & nb d'inscrits
|
|
||||||
df["nb_etuds"] = len(self.etudids)
|
|
||||||
df.loc[self.inscrits_ids, "nb_inscrits"] = len(self.inscrits_ids)
|
|
||||||
|
|
||||||
# Le classement des inscrits
|
|
||||||
notes_non_nulles = notes[self.inscrits_ids]
|
|
||||||
(class_str, class_int) = comp_ranks_series(notes_non_nulles)
|
|
||||||
df.loc[self.inscrits_ids, "classement"] = class_int
|
|
||||||
|
|
||||||
# Le rang (classement/nb_inscrit)
|
|
||||||
df["rang"] = df["rang"].astype(str)
|
|
||||||
df.loc[self.inscrits_ids, "rang"] = (
|
|
||||||
df.loc[self.inscrits_ids, "classement"].astype(int).astype(str)
|
|
||||||
+ "/"
|
|
||||||
+ df.loc[self.inscrits_ids, "nb_inscrits"].astype(int).astype(str)
|
|
||||||
)
|
|
||||||
|
|
||||||
# Les stat (des inscrits)
|
|
||||||
df.loc[self.inscrits_ids, "min"] = notes.min()
|
|
||||||
df.loc[self.inscrits_ids, "max"] = notes.max()
|
|
||||||
df.loc[self.inscrits_ids, "moy"] = notes.mean()
|
|
||||||
|
|
||||||
return df
|
|
||||||
|
|
||||||
def to_dict(self) -> dict:
|
|
||||||
"""Renvoie un dictionnaire de synthèse des moyennes/classements/statistiques"""
|
|
||||||
synthese = {
|
|
||||||
"notes": self.df["note"],
|
|
||||||
"classements": self.df["classement"],
|
|
||||||
"min": self.df["min"].mean(),
|
|
||||||
"max": self.df["max"].mean(),
|
|
||||||
"moy": self.df["moy"].mean(),
|
|
||||||
"nb_inscrits": self.df["nb_inscrits"].mean(),
|
|
||||||
}
|
|
||||||
return synthese
|
|
||||||
|
|
||||||
def get_notes(self):
|
|
||||||
"""Série des notes, arrondies à 2 chiffres après la virgule"""
|
|
||||||
return self.df["note"].round(2)
|
|
||||||
|
|
||||||
def get_rangs_inscrits(self) -> pd.Series:
|
|
||||||
"""Série des rangs classement/nbre_inscrit"""
|
|
||||||
return self.df["rang"]
|
|
||||||
|
|
||||||
def get_min(self) -> pd.Series:
|
|
||||||
"""Série des min"""
|
|
||||||
return self.df["min"].round(2)
|
|
||||||
|
|
||||||
def get_max(self) -> pd.Series:
|
|
||||||
"""Série des max"""
|
|
||||||
return self.df["max"].round(2)
|
|
||||||
|
|
||||||
def get_moy(self) -> pd.Series:
|
|
||||||
"""Série des moy"""
|
|
||||||
return self.df["moy"].round(2)
|
|
||||||
|
|
||||||
|
|
||||||
def get_note_for_df(self, etudid: int):
|
|
||||||
"""Note d'un étudiant donné par son etudid"""
|
|
||||||
return round(self.df["note"].loc[etudid], 2)
|
|
||||||
|
|
||||||
def get_min_for_df(self) -> float:
|
|
||||||
"""Min renseigné pour affichage dans un df"""
|
|
||||||
return round(self.synthese["min"], 2)
|
|
||||||
|
|
||||||
def get_max_for_df(self) -> float:
|
|
||||||
"""Max renseigné pour affichage dans un df"""
|
|
||||||
return round(self.synthese["max"], 2)
|
|
||||||
|
|
||||||
def get_moy_for_df(self) -> float:
|
|
||||||
"""Moyenne renseignée pour affichage dans un df"""
|
|
||||||
return round(self.synthese["moy"], 2)
|
|
||||||
|
|
||||||
def get_class_for_df(self, etudid: int) -> str:
|
|
||||||
"""Classement ramené au nombre d'inscrits,
|
|
||||||
pour un étudiant donné par son etudid"""
|
|
||||||
classement = self.df["rang"].loc[etudid]
|
|
||||||
if not pd.isna(classement):
|
|
||||||
return classement
|
|
||||||
else:
|
|
||||||
return pe_affichage.SANS_NOTE
|
|
||||||
|
|
||||||
def is_significatif(self) -> bool:
|
|
||||||
"""Indique si la moyenne est significative (c'est-à-dire à des notes)"""
|
|
||||||
return self.synthese["nb_inscrits"] > 0
|
|
||||||
|
|
||||||
|
|
||||||
class TableTag(object):
|
|
||||||
def __init__(self):
|
|
||||||
"""Classe centralisant différentes méthodes communes aux
|
|
||||||
SemestreTag, TrajectoireTag, AggregatInterclassTag
|
|
||||||
"""
|
|
||||||
pass
|
|
||||||
|
|
||||||
# -----------------------------------------------------------------------------------------------------------
|
|
||||||
def get_all_tags(self):
|
|
||||||
"""Liste des tags de la table, triée par ordre alphabétique,
|
|
||||||
extraite des clés du dictionnaire ``moyennes_tags`` connues (tags en doublon
|
|
||||||
possible).
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Liste de tags triés par ordre alphabétique
|
|
||||||
"""
|
|
||||||
return sorted(list(self.moyennes_tags.keys()))
|
|
||||||
|
|
||||||
def df_moyennes_et_classements(self) -> pd.DataFrame:
|
|
||||||
"""Renvoie un dataframe listant toutes les moyennes,
|
|
||||||
et les classements des étudiants pour tous les tags.
|
|
||||||
|
|
||||||
Est utilisé pour afficher le détail d'un tableau taggué
|
|
||||||
(semestres, trajectoires ou aggrégat)
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Le dataframe des notes et des classements
|
|
||||||
"""
|
|
||||||
|
|
||||||
etudiants = self.etudiants
|
|
||||||
df = pd.DataFrame.from_dict(etudiants, orient="index", columns=["nom"])
|
|
||||||
|
|
||||||
tags_tries = self.get_all_tags()
|
|
||||||
for tag in tags_tries:
|
|
||||||
moy_tag = self.moyennes_tags[tag]
|
|
||||||
df = df.join(moy_tag.synthese["notes"].rename(f"Moy {tag}"))
|
|
||||||
df = df.join(moy_tag.synthese["classements"].rename(f"Class {tag}"))
|
|
||||||
|
|
||||||
return df
|
|
||||||
|
|
||||||
def df_notes(self) -> pd.DataFrame | None:
|
|
||||||
"""Renvoie un dataframe (etudid x tag) listant toutes les moyennes par tags
|
|
||||||
|
|
||||||
Returns:
|
|
||||||
Un dataframe etudids x tag (avec tag par ordre alphabétique)
|
|
||||||
"""
|
|
||||||
tags_tries = self.get_all_tags()
|
|
||||||
if tags_tries:
|
|
||||||
dict_series = {}
|
|
||||||
for tag in tags_tries:
|
|
||||||
# Les moyennes associés au tag
|
|
||||||
moy_tag = self.moyennes_tags[tag]
|
|
||||||
dict_series[tag] = moy_tag.synthese["notes"]
|
|
||||||
df = pd.DataFrame(dict_series)
|
|
||||||
return df
|
|
|
@ -38,6 +38,7 @@
|
||||||
from flask import flash, g, redirect, render_template, request, send_file, url_for
|
from flask import flash, g, redirect, render_template, request, send_file, url_for
|
||||||
|
|
||||||
from app.decorators import permission_required, scodoc
|
from app.decorators import permission_required, scodoc
|
||||||
|
from app.forms.pe.pe_sem_recap import ParametrageClasseurPE
|
||||||
from app.models import FormSemestre
|
from app.models import FormSemestre
|
||||||
from app.pe import pe_comp
|
from app.pe import pe_comp
|
||||||
from app.pe import pe_jury
|
from app.pe import pe_jury
|
||||||
|
@ -73,32 +74,50 @@ def pe_view_sem_recap(formsemestre_id: int):
|
||||||
# Cosemestres diplomants
|
# Cosemestres diplomants
|
||||||
cosemestres = pe_comp.get_cosemestres_diplomants(annee_diplome)
|
cosemestres = pe_comp.get_cosemestres_diplomants(annee_diplome)
|
||||||
|
|
||||||
|
form = ParametrageClasseurPE()
|
||||||
|
|
||||||
|
cosemestres_tries = pe_comp.tri_semestres_par_rang(cosemestres)
|
||||||
|
affichage_cosemestres_tries = {
|
||||||
|
rang: ", ".join([sem.titre_annee() for sem in cosemestres_tries[rang]])
|
||||||
|
for rang in cosemestres_tries
|
||||||
|
}
|
||||||
if request.method == "GET":
|
if request.method == "GET":
|
||||||
return render_template(
|
return render_template(
|
||||||
"pe/pe_view_sem_recap.j2",
|
"pe/pe_view_sem_recap.j2",
|
||||||
annee_diplome=annee_diplome,
|
annee_diplome=annee_diplome,
|
||||||
|
form=form,
|
||||||
formsemestre=formsemestre,
|
formsemestre=formsemestre,
|
||||||
sco=ScoData(formsemestre=formsemestre),
|
sco=ScoData(formsemestre=formsemestre),
|
||||||
cosemestres=cosemestres,
|
cosemestres=affichage_cosemestres_tries,
|
||||||
|
rangs_tries=sorted(affichage_cosemestres_tries.keys()),
|
||||||
)
|
)
|
||||||
|
|
||||||
# request.method == "POST"
|
# request.method == "POST"
|
||||||
jury = pe_jury.JuryPE(annee_diplome)
|
if form.validate_on_submit():
|
||||||
if not jury.diplomes_ids:
|
jury = pe_jury.JuryPE(annee_diplome, formsemestre_id, options=form.data)
|
||||||
flash("aucun étudiant à considérer !")
|
if not jury.diplomes_ids:
|
||||||
return redirect(
|
flash("aucun étudiant à considérer !")
|
||||||
url_for(
|
return redirect(
|
||||||
"notes.pe_view_sem_recap",
|
url_for(
|
||||||
scodoc_dept=g.scodoc_dept,
|
"notes.pe_view_sem_recap",
|
||||||
formsemestre_id=formsemestre_id,
|
scodoc_dept=g.scodoc_dept,
|
||||||
|
formsemestre_id=formsemestre_id,
|
||||||
|
)
|
||||||
)
|
)
|
||||||
|
|
||||||
|
data = jury.get_zipped_data()
|
||||||
|
|
||||||
|
return send_file(
|
||||||
|
data,
|
||||||
|
mimetype="application/zip",
|
||||||
|
download_name=scu.sanitize_filename(jury.nom_export_zip + ".zip"),
|
||||||
|
as_attachment=True,
|
||||||
)
|
)
|
||||||
|
|
||||||
data = jury.get_zipped_data()
|
return redirect(
|
||||||
|
url_for(
|
||||||
return send_file(
|
"notes.formsemestre_status",
|
||||||
data,
|
scodoc_dept=g.scodoc_dept,
|
||||||
mimetype="application/zip",
|
formsemestre_id=formsemestre_id,
|
||||||
download_name=scu.sanitize_filename(jury.nom_export_zip + ".zip"),
|
)
|
||||||
as_attachment=True,
|
|
||||||
)
|
)
|
||||||
|
|
0
app/pe/rcss/__init__.py
Normal file
0
app/pe/rcss/__init__.py
Normal file
131
app/pe/rcss/pe_rcs.py
Normal file
131
app/pe/rcss/pe_rcs.py
Normal file
|
@ -0,0 +1,131 @@
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on 01-2024
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
|
||||||
|
from app.models import FormSemestre
|
||||||
|
|
||||||
|
TYPES_RCS = {
|
||||||
|
"S1": {
|
||||||
|
"aggregat": ["S1"],
|
||||||
|
"descr": "Semestre 1 (S1)",
|
||||||
|
},
|
||||||
|
"S2": {
|
||||||
|
"aggregat": ["S2"],
|
||||||
|
"descr": "Semestre 2 (S2)",
|
||||||
|
},
|
||||||
|
"1A": {
|
||||||
|
"aggregat": ["S1", "S2"],
|
||||||
|
"descr": "BUT1 (S1+S2)",
|
||||||
|
},
|
||||||
|
"S3": {
|
||||||
|
"aggregat": ["S3"],
|
||||||
|
"descr": "Semestre 3 (S3)",
|
||||||
|
},
|
||||||
|
"S4": {
|
||||||
|
"aggregat": ["S4"],
|
||||||
|
"descr": "Semestre 4 (S4)",
|
||||||
|
},
|
||||||
|
"2A": {
|
||||||
|
"aggregat": ["S3", "S4"],
|
||||||
|
"descr": "BUT2 (S3+S4)",
|
||||||
|
},
|
||||||
|
"3S": {
|
||||||
|
"aggregat": ["S1", "S2", "S3"],
|
||||||
|
"descr": "Moyenne du S1 au S3 (S1+S2+S3)",
|
||||||
|
},
|
||||||
|
"4S": {
|
||||||
|
"aggregat": ["S1", "S2", "S3", "S4"],
|
||||||
|
"descr": "Moyenne du S1 au S4 (S1+S2+S3+S4)",
|
||||||
|
},
|
||||||
|
"S5": {
|
||||||
|
"aggregat": ["S5"],
|
||||||
|
"descr": "Semestre 5 (S5)",
|
||||||
|
},
|
||||||
|
"S6": {
|
||||||
|
"aggregat": ["S6"],
|
||||||
|
"descr": "Semestre 6 (S6)",
|
||||||
|
},
|
||||||
|
"3A": {
|
||||||
|
"aggregat": ["S5", "S6"],
|
||||||
|
"descr": "BUT3 (S5+S6)",
|
||||||
|
},
|
||||||
|
"5S": {
|
||||||
|
"aggregat": ["S1", "S2", "S3", "S4", "S5"],
|
||||||
|
"descr": "Moyenne du S1 au S5 (S1+S2+S3+S4+S5)",
|
||||||
|
},
|
||||||
|
"6S": {
|
||||||
|
"aggregat": ["S1", "S2", "S3", "S4", "S5", "S6"],
|
||||||
|
"descr": "Moyenne globale (S1+S2+S3+S4+S5+S6)",
|
||||||
|
},
|
||||||
|
}
|
||||||
|
"""Dictionnaire détaillant les différents regroupements cohérents
|
||||||
|
de semestres (RCS), en leur attribuant un nom et en détaillant
|
||||||
|
le nom des semestres qu'ils regroupent et l'affichage qui en sera fait
|
||||||
|
dans les tableurs de synthèse.
|
||||||
|
"""
|
||||||
|
|
||||||
|
TOUS_LES_RCS_AVEC_PLUSIEURS_SEM = [cle for cle in TYPES_RCS if not cle.startswith("S")]
|
||||||
|
TOUS_LES_RCS = list(TYPES_RCS.keys())
|
||||||
|
TOUS_LES_SEMESTRES = [cle for cle in TYPES_RCS if cle.startswith("S")]
|
||||||
|
|
||||||
|
|
||||||
|
def get_descr_rcs(nom_rcs: str) -> str:
|
||||||
|
"""Renvoie la description pour les tableurs de synthèse
|
||||||
|
Excel d'un nom de RCS"""
|
||||||
|
return TYPES_RCS[nom_rcs]["descr"]
|
||||||
|
|
||||||
|
|
||||||
|
class RCS:
|
||||||
|
"""Modélise un regroupement cohérent de semestres,
|
||||||
|
tous se terminant par un (form)semestre final.
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, nom: str, semestre_final: FormSemestre):
|
||||||
|
self.nom: str = nom
|
||||||
|
"""Nom du RCS"""
|
||||||
|
assert self.nom in TOUS_LES_RCS, "Le nom d'un RCS doit être un aggrégat"
|
||||||
|
|
||||||
|
self.aggregat: list[str] = TYPES_RCS[nom]["aggregat"]
|
||||||
|
"""Aggrégat (liste des nom des semestres aggrégés)"""
|
||||||
|
|
||||||
|
self.formsemestre_final: FormSemestre = semestre_final
|
||||||
|
"""(Form)Semestre final du RCS"""
|
||||||
|
|
||||||
|
self.rang_final = self.formsemestre_final.semestre_id
|
||||||
|
"""Rang du formsemestre final"""
|
||||||
|
|
||||||
|
self.rcs_id: (str, int) = (nom, semestre_final.formsemestre_id)
|
||||||
|
"""Identifiant du RCS sous forme (nom_rcs, id du semestre_terminal)"""
|
||||||
|
|
||||||
|
self.fid_final: int = self.formsemestre_final.formsemestre_id
|
||||||
|
"""Identifiant du (Form)Semestre final"""
|
||||||
|
|
||||||
|
def get_formsemestre_id_final(self) -> int:
|
||||||
|
"""Renvoie l'identifiant du formsemestre final du RCS
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
L'id du formsemestre final (marquant la fin) du RCS
|
||||||
|
"""
|
||||||
|
return self.formsemestre_final.formsemestre_id
|
||||||
|
|
||||||
|
def __str__(self):
|
||||||
|
"""Représentation textuelle d'un RCS"""
|
||||||
|
return f"{self.nom}[#{self.formsemestre_final.formsemestre_id}✟{self.formsemestre_final.date_fin.year}]"
|
||||||
|
|
||||||
|
def get_repr(self, verbose=True):
|
||||||
|
"""Représentation textuelle d'un RCS"""
|
||||||
|
return self.__str__()
|
||||||
|
|
||||||
|
def __eq__(self, other):
|
||||||
|
"""Egalité de RCS"""
|
||||||
|
return (
|
||||||
|
self.nom == other.nom
|
||||||
|
and self.formsemestre_final == other.formsemestre_final
|
||||||
|
)
|
59
app/pe/rcss/pe_rcsemx.py
Normal file
59
app/pe/rcss/pe_rcsemx.py
Normal file
|
@ -0,0 +1,59 @@
|
||||||
|
##############################################################################
|
||||||
|
# Module "Avis de poursuite d'étude"
|
||||||
|
# conçu et développé par Cléo Baras (IUT de Grenoble)
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""
|
||||||
|
Created on 01-2024
|
||||||
|
|
||||||
|
@author: barasc
|
||||||
|
"""
|
||||||
|
|
||||||
|
from app.models import FormSemestre
|
||||||
|
from app.pe.moys import pe_sxtag
|
||||||
|
from app.pe.rcss import pe_rcs, pe_trajectoires
|
||||||
|
|
||||||
|
|
||||||
|
class RCSemX(pe_rcs.RCS):
|
||||||
|
"""Modélise un regroupement cohérent de SemX (en même regroupant
|
||||||
|
des semestres Sx combinés pour former les résultats des étudiants
|
||||||
|
au semestre de rang x) dans le but de synthétiser les résultats
|
||||||
|
du S1 jusqu'au semestre final ciblé par le RCSemX (dépendant de l'aggrégat
|
||||||
|
visé).
|
||||||
|
|
||||||
|
Par ex: Si l'aggrégat du RCSemX est '3S' (=S1+S2+S3),
|
||||||
|
regroupement le SemX du S1 + le SemX du S2 + le SemX du S3 (chacun
|
||||||
|
incluant des infos sur les redoublements).
|
||||||
|
|
||||||
|
Args:
|
||||||
|
nom: Un nom du RCS (par ex: '5S')
|
||||||
|
semestre_final: Le semestre final du RCS
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, nom: str, semestre_final: FormSemestre):
|
||||||
|
pe_rcs.RCS.__init__(self, nom, semestre_final)
|
||||||
|
|
||||||
|
self.semXs_aggreges: dict[(str, int) : pe_sxtag.SxTag] = {}
|
||||||
|
"""Les semX à aggréger"""
|
||||||
|
|
||||||
|
def add_semXs(self, semXs: dict[(str, int) : pe_trajectoires.SemX]):
|
||||||
|
"""Ajoute des semXs aux semXs à regrouper dans le RCSemX
|
||||||
|
|
||||||
|
Args:
|
||||||
|
semXs: Dictionnaire ``{(str,fid): RCF}`` à ajouter
|
||||||
|
"""
|
||||||
|
self.semXs_aggreges = self.semXs_aggreges | semXs
|
||||||
|
|
||||||
|
def get_repr(self, verbose=True) -> str:
|
||||||
|
"""Représentation textuelle d'un RCSF
|
||||||
|
basé sur ses RCF aggrégés"""
|
||||||
|
title = f"""{self.__class__.__name__} {pe_rcs.RCS.__str__(self)}"""
|
||||||
|
if verbose:
|
||||||
|
noms = []
|
||||||
|
for semx_id, semx in self.semXs_aggreges.items():
|
||||||
|
noms.append(semx.get_repr(verbose=False))
|
||||||
|
if noms:
|
||||||
|
title += " <<" + "+".join(noms) + ">>"
|
||||||
|
else:
|
||||||
|
title += " <<vide>>"
|
||||||
|
return title
|
87
app/pe/rcss/pe_trajectoires.py
Normal file
87
app/pe/rcss/pe_trajectoires.py
Normal file
|
@ -0,0 +1,87 @@
|
||||||
|
from app.models import FormSemestre
|
||||||
|
import app.pe.rcss.pe_rcs as pe_rcs
|
||||||
|
|
||||||
|
|
||||||
|
class Trajectoire(pe_rcs.RCS):
|
||||||
|
"""Regroupement Cohérent de Semestres ciblant un type d'aggrégat (par ex.
|
||||||
|
'S2', '3S', '1A') et un semestre final, et dont les données regroupées
|
||||||
|
sont des **FormSemestres** suivis par les étudiants.
|
||||||
|
|
||||||
|
Une *Trajectoire* traduit la succession de semestres
|
||||||
|
qu'ont pu suivre des étudiants pour aller d'un semestre S1 jusqu'au semestre final
|
||||||
|
de l'aggrégat.
|
||||||
|
|
||||||
|
Une *Trajectoire* peut être :
|
||||||
|
|
||||||
|
* un RCS de semestre de type "Sx" (cf. classe "SemX"), qui stocke les
|
||||||
|
formsemestres de rang x qu'ont suivi l'étudiant pour valider le Sx
|
||||||
|
(en général 1 formsemestre pour les non-redoublants et 2 pour les redoublants)
|
||||||
|
|
||||||
|
* un RCS de type iS ou iA (par ex, 3A=S1+S2+S3), qui identifie
|
||||||
|
les formsemestres que des étudiants ont suivis pour les amener jusqu'au semestre
|
||||||
|
terminal du RCS. Par ex: si le RCS est un 3S:
|
||||||
|
|
||||||
|
* des S1+S2+S1+S2+S3 si redoublement de la 1ère année
|
||||||
|
* des S1+S2+(année de césure)+S3 si césure, ...
|
||||||
|
|
||||||
|
Args:
|
||||||
|
nom: Un nom du RCS (par ex: '5S')
|
||||||
|
semestre_final: Le formsemestre final du RCS
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, nom: str, semestre_final: FormSemestre):
|
||||||
|
pe_rcs.RCS.__init__(self, nom, semestre_final)
|
||||||
|
|
||||||
|
self.semestres_aggreges: dict[int:FormSemestre] = {}
|
||||||
|
"""Formsemestres regroupés dans le RCS"""
|
||||||
|
|
||||||
|
def add_semestres(self, semestres: dict[int:FormSemestre]):
|
||||||
|
"""Ajout de semestres aux semestres à regrouper
|
||||||
|
|
||||||
|
Args:
|
||||||
|
semestres: Dictionnaire ``{fid: Formsemestre)``
|
||||||
|
"""
|
||||||
|
for sem in semestres.values():
|
||||||
|
assert isinstance(
|
||||||
|
sem, FormSemestre
|
||||||
|
), "Les données aggrégées d'une Trajectoire doivent être des FormSemestres"
|
||||||
|
self.semestres_aggreges = self.semestres_aggreges | semestres
|
||||||
|
|
||||||
|
def get_repr(self, verbose=True) -> str:
|
||||||
|
"""Représentation textuelle d'un RCS
|
||||||
|
basé sur ses semestres aggrégés"""
|
||||||
|
title = f"""{self.__class__.__name__} {pe_rcs.RCS.__str__(self)}"""
|
||||||
|
if verbose:
|
||||||
|
noms = []
|
||||||
|
for fid in self.semestres_aggreges:
|
||||||
|
semestre = self.semestres_aggreges[fid]
|
||||||
|
noms.append(f"S{semestre.semestre_id}#{fid}")
|
||||||
|
noms = sorted(noms)
|
||||||
|
if noms:
|
||||||
|
title += " <" + "+".join(noms) + ">"
|
||||||
|
else:
|
||||||
|
title += " <vide>"
|
||||||
|
return title
|
||||||
|
|
||||||
|
|
||||||
|
class SemX(Trajectoire):
|
||||||
|
"""Trajectoire (regroupement cohérent de (form)semestres
|
||||||
|
dans laquelle tous les semestres regroupés sont de même rang `x`.
|
||||||
|
|
||||||
|
Les SemX stocke les
|
||||||
|
formsemestres de rang x qu'ont suivi l'étudiant pour valider le Sx
|
||||||
|
(en général 1 formsemestre pour les non-redoublants et 2 pour les redoublants).
|
||||||
|
|
||||||
|
Ils servent à calculer les SemXTag (moyennes par tag des RCS de type `Sx`).
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, trajectoire: Trajectoire):
|
||||||
|
Trajectoire.__init__(self, trajectoire.nom, trajectoire.formsemestre_final)
|
||||||
|
|
||||||
|
semestres_aggreges = trajectoire.semestres_aggreges
|
||||||
|
for sem in semestres_aggreges.values():
|
||||||
|
assert (
|
||||||
|
sem.semestre_id == trajectoire.rang_final
|
||||||
|
), "Tous les semestres aggrégés d'un SemX doivent être de même rang"
|
||||||
|
|
||||||
|
self.semestres_aggreges = trajectoire.semestres_aggreges
|
|
@ -48,6 +48,7 @@ from typing import Any
|
||||||
from urllib.parse import urlparse, urlencode, parse_qs, urlunparse
|
from urllib.parse import urlparse, urlencode, parse_qs, urlunparse
|
||||||
|
|
||||||
from openpyxl.utils import get_column_letter
|
from openpyxl.utils import get_column_letter
|
||||||
|
import reportlab
|
||||||
from reportlab.platypus import Paragraph, Spacer
|
from reportlab.platypus import Paragraph, Spacer
|
||||||
from reportlab.platypus import Table, KeepInFrame
|
from reportlab.platypus import Table, KeepInFrame
|
||||||
from reportlab.lib.colors import Color
|
from reportlab.lib.colors import Color
|
||||||
|
@ -175,6 +176,7 @@ class GenTable:
|
||||||
self.xml_link = xml_link
|
self.xml_link = xml_link
|
||||||
# HTML parameters:
|
# HTML parameters:
|
||||||
if not table_id: # random id
|
if not table_id: # random id
|
||||||
|
log("Warning: GenTable() called without table_id")
|
||||||
self.table_id = "gt_" + str(random.randint(0, 1000000))
|
self.table_id = "gt_" + str(random.randint(0, 1000000))
|
||||||
else:
|
else:
|
||||||
self.table_id = table_id
|
self.table_id = table_id
|
||||||
|
@ -263,16 +265,16 @@ class GenTable:
|
||||||
colspan_count -= 1
|
colspan_count -= 1
|
||||||
# if colspan_count > 0:
|
# if colspan_count > 0:
|
||||||
# continue # skip cells after a span
|
# continue # skip cells after a span
|
||||||
if pdf_mode:
|
if pdf_mode and f"_{cid}_pdf" in row:
|
||||||
content = row.get(f"_{cid}_pdf", False) or row.get(cid, "")
|
content = row[f"_{cid}_pdf"]
|
||||||
elif xls_mode:
|
elif xls_mode and f"_{cid}_xls" in row:
|
||||||
content = row.get(f"_{cid}_xls", False) or row.get(cid, "")
|
content = row[f"_{cid}_xls"]
|
||||||
else:
|
else:
|
||||||
content = row.get(cid, "")
|
content = row.get(cid, "")
|
||||||
# Convert None to empty string ""
|
# Convert None to empty string ""
|
||||||
content = "" if content is None else content
|
content = "" if content is None else content
|
||||||
|
|
||||||
colspan = row.get("_%s_colspan" % cid, 0)
|
colspan = row.get(f"_{cid}_colspan", 0)
|
||||||
if colspan > 1:
|
if colspan > 1:
|
||||||
pdf_style_list.append(
|
pdf_style_list.append(
|
||||||
(
|
(
|
||||||
|
@ -676,6 +678,7 @@ class GenTable:
|
||||||
fmt="html",
|
fmt="html",
|
||||||
page_title="",
|
page_title="",
|
||||||
filename=None,
|
filename=None,
|
||||||
|
cssstyles=[],
|
||||||
javascripts=[],
|
javascripts=[],
|
||||||
with_html_headers=True,
|
with_html_headers=True,
|
||||||
publish=True,
|
publish=True,
|
||||||
|
@ -696,6 +699,7 @@ class GenTable:
|
||||||
H.append(
|
H.append(
|
||||||
self.html_header
|
self.html_header
|
||||||
or html_sco_header.sco_header(
|
or html_sco_header.sco_header(
|
||||||
|
cssstyles=cssstyles,
|
||||||
page_title=page_title,
|
page_title=page_title,
|
||||||
javascripts=javascripts,
|
javascripts=javascripts,
|
||||||
init_qtip=init_qtip,
|
init_qtip=init_qtip,
|
||||||
|
@ -721,7 +725,7 @@ class GenTable:
|
||||||
)
|
)
|
||||||
else:
|
else:
|
||||||
return pdf_doc
|
return pdf_doc
|
||||||
elif fmt == "xls" or fmt == "xlsx": # dans les 2 cas retourne du xlsx
|
elif fmt in ("xls", "xlsx"): # dans les 2 cas retourne du xlsx
|
||||||
xls = self.excel()
|
xls = self.excel()
|
||||||
if publish:
|
if publish:
|
||||||
return scu.send_file(
|
return scu.send_file(
|
||||||
|
@ -730,8 +734,7 @@ class GenTable:
|
||||||
suffix=scu.XLSX_SUFFIX,
|
suffix=scu.XLSX_SUFFIX,
|
||||||
mime=scu.XLSX_MIMETYPE,
|
mime=scu.XLSX_MIMETYPE,
|
||||||
)
|
)
|
||||||
else:
|
return xls
|
||||||
return xls
|
|
||||||
elif fmt == "text":
|
elif fmt == "text":
|
||||||
return self.text()
|
return self.text()
|
||||||
elif fmt == "csv":
|
elif fmt == "csv":
|
||||||
|
@ -811,7 +814,10 @@ if __name__ == "__main__":
|
||||||
document,
|
document,
|
||||||
)
|
)
|
||||||
)
|
)
|
||||||
document.build(objects)
|
try:
|
||||||
|
document.build(objects)
|
||||||
|
except (ValueError, KeyError, reportlab.platypus.doctemplate.LayoutError) as exc:
|
||||||
|
raise ScoPDFFormatError(str(exc)) from exc
|
||||||
data = doc.getvalue()
|
data = doc.getvalue()
|
||||||
with open("/tmp/gen_table.pdf", "wb") as f:
|
with open("/tmp/gen_table.pdf", "wb") as f:
|
||||||
f.write(data)
|
f.write(data)
|
||||||
|
|
|
@ -25,12 +25,11 @@
|
||||||
#
|
#
|
||||||
##############################################################################
|
##############################################################################
|
||||||
|
|
||||||
"""HTML Header/Footer for ScoDoc pages
|
"""HTML Header/Footer for ScoDoc pages"""
|
||||||
"""
|
|
||||||
|
|
||||||
import html
|
import html
|
||||||
|
|
||||||
from flask import g, render_template
|
from flask import g, render_template, url_for
|
||||||
from flask import request
|
from flask import request
|
||||||
from flask_login import current_user
|
from flask_login import current_user
|
||||||
|
|
||||||
|
@ -101,7 +100,7 @@ _HTML_BEGIN = f"""<!DOCTYPE html>
|
||||||
<script src="{scu.STATIC_DIR}/libjs/menu.js"></script>
|
<script src="{scu.STATIC_DIR}/libjs/menu.js"></script>
|
||||||
<script src="{scu.STATIC_DIR}/libjs/bubble.js"></script>
|
<script src="{scu.STATIC_DIR}/libjs/bubble.js"></script>
|
||||||
<script>
|
<script>
|
||||||
window.onload=function(){{enableTooltips("gtrcontent")}};
|
window.onload=function(){{enableTooltips("gtrcontent"); enableTooltips("sidebar");}};
|
||||||
</script>
|
</script>
|
||||||
|
|
||||||
<script src="{scu.STATIC_DIR}/jQuery/jquery.js"></script>
|
<script src="{scu.STATIC_DIR}/jQuery/jquery.js"></script>
|
||||||
|
@ -163,7 +162,7 @@ def sco_header(
|
||||||
params = {
|
params = {
|
||||||
"page_title": page_title or sco_version.SCONAME,
|
"page_title": page_title or sco_version.SCONAME,
|
||||||
"no_side_bar": no_side_bar,
|
"no_side_bar": no_side_bar,
|
||||||
"ScoURL": scu.ScoURL(),
|
"ScoURL": url_for("scolar.index_html", scodoc_dept=g.scodoc_dept),
|
||||||
"encoding": scu.SCO_ENCODING,
|
"encoding": scu.SCO_ENCODING,
|
||||||
"titrebandeau_mkup": "<td>" + titrebandeau + "</td>",
|
"titrebandeau_mkup": "<td>" + titrebandeau + "</td>",
|
||||||
"authuser": current_user.user_name,
|
"authuser": current_user.user_name,
|
||||||
|
@ -179,6 +178,7 @@ def sco_header(
|
||||||
|
|
||||||
H = [
|
H = [
|
||||||
"""<!DOCTYPE html><html lang="fr">
|
"""<!DOCTYPE html><html lang="fr">
|
||||||
|
<!-- ScoDoc legacy -->
|
||||||
<head>
|
<head>
|
||||||
<meta charset="utf-8"/>
|
<meta charset="utf-8"/>
|
||||||
<title>%(page_title)s</title>
|
<title>%(page_title)s</title>
|
||||||
|
@ -217,9 +217,9 @@ def sco_header(
|
||||||
<script src="{scu.STATIC_DIR}/libjs/menu.js"></script>
|
<script src="{scu.STATIC_DIR}/libjs/menu.js"></script>
|
||||||
<script src="{scu.STATIC_DIR}/libjs/bubble.js"></script>
|
<script src="{scu.STATIC_DIR}/libjs/bubble.js"></script>
|
||||||
<script>
|
<script>
|
||||||
window.onload=function(){{enableTooltips("gtrcontent")}};
|
window.onload=function(){{enableTooltips("gtrcontent"); enableTooltips("sidebar");}};
|
||||||
|
|
||||||
const SCO_URL="{scu.ScoURL()}";
|
const SCO_URL="{url_for("scolar.index_html", scodoc_dept=g.scodoc_dept)}";
|
||||||
const SCO_TIMEZONE="{scu.TIME_ZONE}";
|
const SCO_TIMEZONE="{scu.TIME_ZONE}";
|
||||||
</script>"""
|
</script>"""
|
||||||
)
|
)
|
||||||
|
@ -303,13 +303,16 @@ def sco_header(
|
||||||
# div pour affichage messages temporaires
|
# div pour affichage messages temporaires
|
||||||
H.append('<div id="sco_msg" class="head_message"></div>')
|
H.append('<div id="sco_msg" class="head_message"></div>')
|
||||||
#
|
#
|
||||||
|
H.append('<div class="sco-app-content">')
|
||||||
return "".join(H)
|
return "".join(H)
|
||||||
|
|
||||||
|
|
||||||
def sco_footer():
|
def sco_footer():
|
||||||
"""Main HTMl pages footer"""
|
"""Main HTMl pages footer"""
|
||||||
return (
|
return (
|
||||||
"""</div><!-- /gtrcontent -->""" + scu.CUSTOM_HTML_FOOTER + """</body></html>"""
|
"""</div></div><!-- /gtrcontent -->"""
|
||||||
|
+ scu.CUSTOM_HTML_FOOTER
|
||||||
|
+ """</body></html>"""
|
||||||
)
|
)
|
||||||
|
|
||||||
|
|
||||||
|
|
|
@ -28,6 +28,7 @@
|
||||||
"""
|
"""
|
||||||
Génération de la "sidebar" (marge gauche des pages HTML)
|
Génération de la "sidebar" (marge gauche des pages HTML)
|
||||||
"""
|
"""
|
||||||
|
|
||||||
from flask import render_template, url_for
|
from flask import render_template, url_for
|
||||||
from flask import g, request
|
from flask import g, request
|
||||||
from flask_login import current_user
|
from flask_login import current_user
|
||||||
|
@ -102,25 +103,33 @@ def sidebar_common():
|
||||||
<a href="{home_link}" class="sidebar">Accueil</a> <br>
|
<a href="{home_link}" class="sidebar">Accueil</a> <br>
|
||||||
<div id="authuser"><a id="authuserlink" href="{
|
<div id="authuser"><a id="authuserlink" href="{
|
||||||
url_for("users.user_info_page",
|
url_for("users.user_info_page",
|
||||||
scodoc_dept=g.scodoc_dept, user_name=current_user.user_name)
|
scodoc_dept=g.scodoc_dept, user_name=current_user.user_name)
|
||||||
}">{current_user.user_name}</a>
|
}">{current_user.user_name}</a>
|
||||||
<br><a id="deconnectlink" href="{url_for("auth.logout")}">déconnexion</a>
|
<br><a id="deconnectlink" href="{url_for("auth.logout")}">déconnexion</a>
|
||||||
</div>
|
</div>
|
||||||
{sidebar_dept()}
|
{sidebar_dept()}
|
||||||
<h2 class="insidebar">Scolarité</h2>
|
<h2 class="insidebar">Scolarité</h2>
|
||||||
<a href="{scu.ScoURL()}" class="sidebar">Semestres</a> <br>
|
<a href="{
|
||||||
<a href="{scu.NotesURL()}" class="sidebar">Formations</a> <br>
|
url_for("scolar.index_html", scodoc_dept=g.scodoc_dept)
|
||||||
|
}" class="sidebar">Semestres</a> <br>
|
||||||
|
<a href="{
|
||||||
|
url_for("notes.index_html", scodoc_dept=g.scodoc_dept)
|
||||||
|
}" class="sidebar">Formations</a> <br>
|
||||||
"""
|
"""
|
||||||
]
|
]
|
||||||
if current_user.has_permission(Permission.AbsChange):
|
if current_user.has_permission(Permission.AbsChange):
|
||||||
H.append(
|
H.append(
|
||||||
f""" <a href="{scu.AssiduitesURL()}" class="sidebar">Assiduité</a> <br> """
|
f""" <a href="{
|
||||||
|
url_for("assiduites.bilan_dept", scodoc_dept=g.scodoc_dept)
|
||||||
|
}" class="sidebar">Assiduité</a> <br> """
|
||||||
)
|
)
|
||||||
if current_user.has_permission(
|
if current_user.has_permission(
|
||||||
Permission.UsersAdmin
|
Permission.UsersAdmin
|
||||||
) or current_user.has_permission(Permission.UsersView):
|
) or current_user.has_permission(Permission.UsersView):
|
||||||
H.append(
|
H.append(
|
||||||
f"""<a href="{scu.UsersURL()}" class="sidebar">Utilisateurs</a> <br>"""
|
f"""<a href="{
|
||||||
|
url_for("users.index_html", scodoc_dept=g.scodoc_dept)
|
||||||
|
}" class="sidebar">Utilisateurs</a> <br>"""
|
||||||
)
|
)
|
||||||
|
|
||||||
if current_user.has_permission(Permission.EditPreferences):
|
if current_user.has_permission(Permission.EditPreferences):
|
||||||
|
@ -141,7 +150,9 @@ def sidebar(etudid: int = None):
|
||||||
params = {}
|
params = {}
|
||||||
|
|
||||||
H = [
|
H = [
|
||||||
f"""<div class="sidebar">
|
f"""
|
||||||
|
<!-- sidebar py -->
|
||||||
|
<div class="sidebar" id="sidebar">
|
||||||
{ sidebar_common() }
|
{ sidebar_common() }
|
||||||
<div class="box-chercheetud">Chercher étudiant:<br>
|
<div class="box-chercheetud">Chercher étudiant:<br>
|
||||||
<form method="get" id="form-chercheetud"
|
<form method="get" id="form-chercheetud"
|
||||||
|
@ -175,18 +186,17 @@ def sidebar(etudid: int = None):
|
||||||
inscription = etud.inscription_courante()
|
inscription = etud.inscription_courante()
|
||||||
if inscription:
|
if inscription:
|
||||||
formsemestre = inscription.formsemestre
|
formsemestre = inscription.formsemestre
|
||||||
nbabs, nbabsjust = sco_assiduites.formsemestre_get_assiduites_count(
|
nbabsnj, nbabsjust, _ = sco_assiduites.formsemestre_get_assiduites_count(
|
||||||
etudid, formsemestre
|
etudid, formsemestre
|
||||||
)
|
)
|
||||||
nbabsnj = nbabs - nbabsjust
|
|
||||||
H.append(
|
H.append(
|
||||||
f"""<span title="absences du {
|
f"""<span title="absences du {
|
||||||
formsemestre.date_debut.strftime("%d/%m/%Y")
|
formsemestre.date_debut.strftime(scu.DATE_FMT)
|
||||||
} au {
|
} au {
|
||||||
formsemestre.date_fin.strftime("%d/%m/%Y")
|
formsemestre.date_fin.strftime(scu.DATE_FMT)
|
||||||
}">({
|
}" data-tooltip>({
|
||||||
sco_preferences.get_preference("assi_metrique", None)})
|
sco_preferences.get_preference("assi_metrique", None)})
|
||||||
<br>{ nbabsjust } J., { nbabsnj } N.J.</span>"""
|
<br>{nbabsjust:1g} J., {nbabsnj:1g} N.J.</span>"""
|
||||||
)
|
)
|
||||||
H.append("<ul>")
|
H.append("<ul>")
|
||||||
if current_user.has_permission(Permission.AbsChange):
|
if current_user.has_permission(Permission.AbsChange):
|
||||||
|
@ -218,12 +228,9 @@ def sidebar(etudid: int = None):
|
||||||
<li><a href="{ url_for('assiduites.calendrier_assi_etud',
|
<li><a href="{ url_for('assiduites.calendrier_assi_etud',
|
||||||
scodoc_dept=g.scodoc_dept, etudid=etudid)
|
scodoc_dept=g.scodoc_dept, etudid=etudid)
|
||||||
}">Calendrier</a></li>
|
}">Calendrier</a></li>
|
||||||
<li><a href="{ url_for('assiduites.liste_assiduites_etud',
|
|
||||||
scodoc_dept=g.scodoc_dept, etudid=etudid)
|
|
||||||
}">Liste</a></li>
|
|
||||||
<li><a href="{ url_for('assiduites.bilan_etud',
|
<li><a href="{ url_for('assiduites.bilan_etud',
|
||||||
scodoc_dept=g.scodoc_dept, etudid=etudid)
|
scodoc_dept=g.scodoc_dept, etudid=etudid)
|
||||||
}">Bilan</a></li>
|
}" title="Les pages bilan et liste ont été fusionnées">Liste/Bilan</a></li>
|
||||||
</ul>
|
</ul>
|
||||||
"""
|
"""
|
||||||
)
|
)
|
||||||
|
|
|
@ -12,6 +12,7 @@ import psycopg2.extras
|
||||||
|
|
||||||
from app import log
|
from app import log
|
||||||
from app.scodoc.sco_exceptions import ScoException, ScoValueError, NoteProcessError
|
from app.scodoc.sco_exceptions import ScoException, ScoValueError, NoteProcessError
|
||||||
|
from app.scodoc import sco_utils as scu
|
||||||
|
|
||||||
quote_html = html.escape
|
quote_html = html.escape
|
||||||
|
|
||||||
|
@ -460,7 +461,8 @@ def dictfilter(d, fields, filter_nulls=True):
|
||||||
# --- Misc Tools
|
# --- Misc Tools
|
||||||
|
|
||||||
|
|
||||||
def DateDMYtoISO(dmy: str, null_is_empty=False) -> str | None: # XXX deprecated
|
# XXX deprecated, voir convert_fr_date
|
||||||
|
def DateDMYtoISO(dmy: str, null_is_empty=False) -> str | None:
|
||||||
"""Convert date string from french format (or ISO) to ISO.
|
"""Convert date string from french format (or ISO) to ISO.
|
||||||
If null_is_empty (default false), returns "" if no input.
|
If null_is_empty (default false), returns "" if no input.
|
||||||
"""
|
"""
|
||||||
|
@ -474,7 +476,7 @@ def DateDMYtoISO(dmy: str, null_is_empty=False) -> str | None: # XXX deprecated
|
||||||
if not isinstance(dmy, str):
|
if not isinstance(dmy, str):
|
||||||
raise ScoValueError(f'Date (j/m/a) invalide: "{dmy}"')
|
raise ScoValueError(f'Date (j/m/a) invalide: "{dmy}"')
|
||||||
try:
|
try:
|
||||||
dt = datetime.datetime.strptime(dmy, "%d/%m/%Y")
|
dt = datetime.datetime.strptime(dmy, scu.DATE_FMT)
|
||||||
except ValueError:
|
except ValueError:
|
||||||
try:
|
try:
|
||||||
dt = datetime.datetime.fromisoformat(dmy)
|
dt = datetime.datetime.fromisoformat(dmy)
|
||||||
|
|
|
@ -34,6 +34,7 @@ from app.models.absences import BilletAbsence
|
||||||
from app.models.etudiants import Identite
|
from app.models.etudiants import Identite
|
||||||
from app.scodoc.gen_tables import GenTable
|
from app.scodoc.gen_tables import GenTable
|
||||||
from app.scodoc import sco_preferences
|
from app.scodoc import sco_preferences
|
||||||
|
from app.scodoc import sco_utils as scu
|
||||||
|
|
||||||
|
|
||||||
def query_billets_etud(etudid: int = None, etat: bool = None) -> Query:
|
def query_billets_etud(etudid: int = None, etat: bool = None) -> Query:
|
||||||
|
@ -89,12 +90,12 @@ def table_billets(
|
||||||
m = " matin"
|
m = " matin"
|
||||||
else:
|
else:
|
||||||
m = " après-midi"
|
m = " après-midi"
|
||||||
billet_dict["abs_begin_str"] = billet.abs_begin.strftime("%d/%m/%Y") + m
|
billet_dict["abs_begin_str"] = billet.abs_begin.strftime(scu.DATE_FMT) + m
|
||||||
if billet.abs_end.hour < 12:
|
if billet.abs_end.hour < 12:
|
||||||
m = " matin"
|
m = " matin"
|
||||||
else:
|
else:
|
||||||
m = " après-midi"
|
m = " après-midi"
|
||||||
billet_dict["abs_end_str"] = billet.abs_end.strftime("%d/%m/%Y") + m
|
billet_dict["abs_end_str"] = billet.abs_end.strftime(scu.DATE_FMT) + m
|
||||||
if billet.etat == 0:
|
if billet.etat == 0:
|
||||||
if billet.justified:
|
if billet.justified:
|
||||||
billet_dict["etat_str"] = "à traiter"
|
billet_dict["etat_str"] = "à traiter"
|
||||||
|
@ -156,5 +157,6 @@ def table_billets(
|
||||||
rows=rows,
|
rows=rows,
|
||||||
html_sortable=True,
|
html_sortable=True,
|
||||||
html_class="table_leftalign",
|
html_class="table_leftalign",
|
||||||
|
table_id="table_billets",
|
||||||
)
|
)
|
||||||
return tab
|
return tab
|
||||||
|
|
|
@ -67,7 +67,7 @@ def abs_notify(etudid: int, date: str | datetime.datetime):
|
||||||
if not formsemestre:
|
if not formsemestre:
|
||||||
return # non inscrit a la date, pas de notification
|
return # non inscrit a la date, pas de notification
|
||||||
|
|
||||||
nbabs, nbabsjust = sco_assiduites.get_assiduites_count_in_interval(
|
_, nbabsjust, nbabs = sco_assiduites.get_assiduites_count_in_interval(
|
||||||
etudid,
|
etudid,
|
||||||
metrique=scu.translate_assiduites_metric(
|
metrique=scu.translate_assiduites_metric(
|
||||||
sco_preferences.get_preference(
|
sco_preferences.get_preference(
|
||||||
|
|
|
@ -288,6 +288,7 @@ def apo_table_compare_etud_results(A, B):
|
||||||
html_class="table_leftalign",
|
html_class="table_leftalign",
|
||||||
html_with_td_classes=True,
|
html_with_td_classes=True,
|
||||||
preferences=sco_preferences.SemPreferences(),
|
preferences=sco_preferences.SemPreferences(),
|
||||||
|
table_id="apo_table_compare_etud_results",
|
||||||
)
|
)
|
||||||
return T
|
return T
|
||||||
|
|
||||||
|
|
|
@ -515,11 +515,13 @@ class ApoEtud(dict):
|
||||||
# ne trouve pas de semestre impair
|
# ne trouve pas de semestre impair
|
||||||
self.validation_annee_but = None
|
self.validation_annee_but = None
|
||||||
return
|
return
|
||||||
self.validation_annee_but: ApcValidationAnnee = ApcValidationAnnee.query.filter_by(
|
self.validation_annee_but: ApcValidationAnnee = (
|
||||||
formsemestre_id=formsemestre.id,
|
ApcValidationAnnee.query.filter_by(
|
||||||
etudid=self.etud["etudid"],
|
formsemestre_id=formsemestre.id,
|
||||||
referentiel_competence_id=self.cur_res.formsemestre.formation.referentiel_competence_id,
|
etudid=self.etud["etudid"],
|
||||||
).first()
|
referentiel_competence_id=self.cur_res.formsemestre.formation.referentiel_competence_id,
|
||||||
|
).first()
|
||||||
|
)
|
||||||
self.is_nar = (
|
self.is_nar = (
|
||||||
self.validation_annee_but and self.validation_annee_but.code == NAR
|
self.validation_annee_but and self.validation_annee_but.code == NAR
|
||||||
)
|
)
|
||||||
|
@ -915,6 +917,7 @@ class ApoData:
|
||||||
columns_ids=columns_ids,
|
columns_ids=columns_ids,
|
||||||
titles=dict(zip(columns_ids, columns_ids)),
|
titles=dict(zip(columns_ids, columns_ids)),
|
||||||
rows=rows,
|
rows=rows,
|
||||||
|
table_id="build_cr_table",
|
||||||
xls_sheet_name="Decisions ScoDoc",
|
xls_sheet_name="Decisions ScoDoc",
|
||||||
)
|
)
|
||||||
return T
|
return T
|
||||||
|
@ -967,6 +970,7 @@ class ApoData:
|
||||||
"rcue": "RCUE",
|
"rcue": "RCUE",
|
||||||
},
|
},
|
||||||
rows=rows,
|
rows=rows,
|
||||||
|
table_id="adsup_table",
|
||||||
xls_sheet_name="ADSUPs",
|
xls_sheet_name="ADSUPs",
|
||||||
)
|
)
|
||||||
|
|
||||||
|
@ -1003,7 +1007,7 @@ def comp_apo_sems(etape_apogee, annee_scolaire: int) -> list[dict]:
|
||||||
def nar_etuds_table(apo_data, nar_etuds):
|
def nar_etuds_table(apo_data, nar_etuds):
|
||||||
"""Liste les NAR -> excel table"""
|
"""Liste les NAR -> excel table"""
|
||||||
code_etape = apo_data.etape_apogee
|
code_etape = apo_data.etape_apogee
|
||||||
today = datetime.datetime.today().strftime("%d/%m/%y")
|
today = datetime.datetime.today().strftime(scu.DATE_FMT)
|
||||||
rows = []
|
rows = []
|
||||||
nar_etuds.sort(key=lambda k: k["nom"])
|
nar_etuds.sort(key=lambda k: k["nom"])
|
||||||
for e in nar_etuds:
|
for e in nar_etuds:
|
||||||
|
@ -1052,6 +1056,7 @@ def nar_etuds_table(apo_data, nar_etuds):
|
||||||
columns_ids=columns_ids,
|
columns_ids=columns_ids,
|
||||||
titles=dict(zip(columns_ids, columns_ids)),
|
titles=dict(zip(columns_ids, columns_ids)),
|
||||||
rows=rows,
|
rows=rows,
|
||||||
|
table_id="nar_etuds_table",
|
||||||
xls_sheet_name="NAR ScoDoc",
|
xls_sheet_name="NAR ScoDoc",
|
||||||
)
|
)
|
||||||
return table.excel()
|
return table.excel()
|
||||||
|
|
|
@ -49,11 +49,13 @@
|
||||||
"""
|
"""
|
||||||
import datetime
|
import datetime
|
||||||
import glob
|
import glob
|
||||||
|
import gzip
|
||||||
import mimetypes
|
import mimetypes
|
||||||
import os
|
import os
|
||||||
import re
|
import re
|
||||||
import shutil
|
import shutil
|
||||||
import time
|
import time
|
||||||
|
import zlib
|
||||||
|
|
||||||
import chardet
|
import chardet
|
||||||
|
|
||||||
|
@ -62,7 +64,7 @@ from flask import g
|
||||||
import app.scodoc.sco_utils as scu
|
import app.scodoc.sco_utils as scu
|
||||||
from config import Config
|
from config import Config
|
||||||
from app import log
|
from app import log
|
||||||
from app.scodoc.sco_exceptions import ScoValueError
|
from app.scodoc.sco_exceptions import ScoException, ScoValueError
|
||||||
|
|
||||||
|
|
||||||
class BaseArchiver:
|
class BaseArchiver:
|
||||||
|
@ -241,11 +243,13 @@ class BaseArchiver:
|
||||||
filename: str,
|
filename: str,
|
||||||
data: str | bytes,
|
data: str | bytes,
|
||||||
dept_id: int = None,
|
dept_id: int = None,
|
||||||
|
compress=False,
|
||||||
):
|
):
|
||||||
"""Store data in archive, under given filename.
|
"""Store data in archive, under given filename.
|
||||||
Filename may be modified (sanitized): return used filename
|
Filename may be modified (sanitized): return used filename
|
||||||
The file is created or replaced.
|
The file is created or replaced.
|
||||||
data may be str or bytes
|
data may be str or bytes
|
||||||
|
If compress, data is gziped and filename suffix ".gz" added.
|
||||||
"""
|
"""
|
||||||
if isinstance(data, str):
|
if isinstance(data, str):
|
||||||
data = data.encode(scu.SCO_ENCODING)
|
data = data.encode(scu.SCO_ENCODING)
|
||||||
|
@ -255,8 +259,14 @@ class BaseArchiver:
|
||||||
try:
|
try:
|
||||||
scu.GSL.acquire()
|
scu.GSL.acquire()
|
||||||
fname = os.path.join(archive_id, filename)
|
fname = os.path.join(archive_id, filename)
|
||||||
with open(fname, "wb") as f:
|
if compress:
|
||||||
f.write(data)
|
if not fname.endswith(".gz"):
|
||||||
|
fname += ".gz"
|
||||||
|
with gzip.open(fname, "wb") as f:
|
||||||
|
f.write(data)
|
||||||
|
else:
|
||||||
|
with open(fname, "wb") as f:
|
||||||
|
f.write(data)
|
||||||
except FileNotFoundError as exc:
|
except FileNotFoundError as exc:
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
f"Erreur stockage archive (dossier inexistant, chemin {fname})"
|
f"Erreur stockage archive (dossier inexistant, chemin {fname})"
|
||||||
|
@ -274,8 +284,17 @@ class BaseArchiver:
|
||||||
fname = os.path.join(archive_id, filename)
|
fname = os.path.join(archive_id, filename)
|
||||||
log(f"reading archive file {fname}")
|
log(f"reading archive file {fname}")
|
||||||
try:
|
try:
|
||||||
with open(fname, "rb") as f:
|
if fname.endswith(".gz"):
|
||||||
data = f.read()
|
try:
|
||||||
|
with gzip.open(fname) as f:
|
||||||
|
data = f.read()
|
||||||
|
except (OSError, EOFError, zlib.error) as exc:
|
||||||
|
raise ScoValueError(
|
||||||
|
f"Erreur lecture archive ({fname} invalide)"
|
||||||
|
) from exc
|
||||||
|
else:
|
||||||
|
with open(fname, "rb") as f:
|
||||||
|
data = f.read()
|
||||||
except FileNotFoundError as exc:
|
except FileNotFoundError as exc:
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
f"Erreur lecture archive (inexistant, chemin {fname})"
|
f"Erreur lecture archive (inexistant, chemin {fname})"
|
||||||
|
@ -288,6 +307,8 @@ class BaseArchiver:
|
||||||
"""
|
"""
|
||||||
archive_id = self.get_id_from_name(oid, archive_name, dept_id=dept_id)
|
archive_id = self.get_id_from_name(oid, archive_name, dept_id=dept_id)
|
||||||
data = self.get(archive_id, filename)
|
data = self.get(archive_id, filename)
|
||||||
|
if filename.endswith(".gz"):
|
||||||
|
filename = filename[:-3]
|
||||||
mime = mimetypes.guess_type(filename)[0]
|
mime = mimetypes.guess_type(filename)[0]
|
||||||
if mime is None:
|
if mime is None:
|
||||||
mime = "application/octet-stream"
|
mime = "application/octet-stream"
|
||||||
|
|
|
@ -68,7 +68,7 @@ PV_ARCHIVER = SemsArchiver()
|
||||||
|
|
||||||
|
|
||||||
def do_formsemestre_archive(
|
def do_formsemestre_archive(
|
||||||
formsemestre_id,
|
formsemestre: FormSemestre,
|
||||||
group_ids: list[int] = None, # si indiqué, ne prend que ces groupes
|
group_ids: list[int] = None, # si indiqué, ne prend que ces groupes
|
||||||
description="",
|
description="",
|
||||||
date_jury="",
|
date_jury="",
|
||||||
|
@ -92,19 +92,18 @@ def do_formsemestre_archive(
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
"do_formsemestre_archive: version de bulletin demandée invalide"
|
"do_formsemestre_archive: version de bulletin demandée invalide"
|
||||||
)
|
)
|
||||||
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
|
||||||
res: NotesTableCompat = res_sem.load_formsemestre_results(formsemestre)
|
res: NotesTableCompat = res_sem.load_formsemestre_results(formsemestre)
|
||||||
sem_archive_id = formsemestre_id
|
sem_archive_id = formsemestre.id
|
||||||
archive_id = PV_ARCHIVER.create_obj_archive(
|
archive_id = PV_ARCHIVER.create_obj_archive(
|
||||||
sem_archive_id, description, formsemestre.dept_id
|
sem_archive_id, description, formsemestre.dept_id
|
||||||
)
|
)
|
||||||
date = PV_ARCHIVER.get_archive_date(archive_id).strftime("%d/%m/%Y à %H:%M")
|
date = PV_ARCHIVER.get_archive_date(archive_id).strftime(scu.DATEATIME_FMT)
|
||||||
|
|
||||||
if not group_ids:
|
if not group_ids:
|
||||||
# tous les inscrits du semestre
|
# tous les inscrits du semestre
|
||||||
group_ids = [sco_groups.get_default_group(formsemestre_id)]
|
group_ids = [sco_groups.get_default_group(formsemestre.id)]
|
||||||
groups_infos = sco_groups_view.DisplayedGroupsInfos(
|
groups_infos = sco_groups_view.DisplayedGroupsInfos(
|
||||||
group_ids, formsemestre_id=formsemestre_id
|
group_ids, formsemestre_id=formsemestre.id
|
||||||
)
|
)
|
||||||
groups_filename = "-" + groups_infos.groups_filename
|
groups_filename = "-" + groups_infos.groups_filename
|
||||||
etudids = [m["etudid"] for m in groups_infos.members]
|
etudids = [m["etudid"] for m in groups_infos.members]
|
||||||
|
@ -142,19 +141,23 @@ def do_formsemestre_archive(
|
||||||
)
|
)
|
||||||
|
|
||||||
# Bulletins en JSON
|
# Bulletins en JSON
|
||||||
data = gen_formsemestre_recapcomplet_json(formsemestre_id, xml_with_decisions=True)
|
data = gen_formsemestre_recapcomplet_json(formsemestre.id, xml_with_decisions=True)
|
||||||
data_js = json.dumps(data, indent=1, cls=ScoDocJSONEncoder)
|
data_js = json.dumps(data, indent=1, cls=ScoDocJSONEncoder)
|
||||||
if data:
|
if data:
|
||||||
PV_ARCHIVER.store(
|
PV_ARCHIVER.store(
|
||||||
archive_id, "Bulletins.json", data_js, dept_id=formsemestre.dept_id
|
archive_id,
|
||||||
|
"Bulletins.json",
|
||||||
|
data_js,
|
||||||
|
dept_id=formsemestre.dept_id,
|
||||||
|
compress=True,
|
||||||
)
|
)
|
||||||
# Décisions de jury, en XLS
|
# Décisions de jury, en XLS
|
||||||
if formsemestre.formation.is_apc():
|
if formsemestre.formation.is_apc():
|
||||||
response = jury_but_pv.pvjury_page_but(formsemestre_id, fmt="xls")
|
response = jury_but_pv.pvjury_page_but(formsemestre.id, fmt="xls")
|
||||||
data = response.get_data()
|
data = response.get_data()
|
||||||
else: # formations classiques
|
else: # formations classiques
|
||||||
data = sco_pv_forms.formsemestre_pvjury(
|
data = sco_pv_forms.formsemestre_pvjury(
|
||||||
formsemestre_id, fmt="xls", publish=False
|
formsemestre.id, fmt="xls", publish=False
|
||||||
)
|
)
|
||||||
if data:
|
if data:
|
||||||
PV_ARCHIVER.store(
|
PV_ARCHIVER.store(
|
||||||
|
@ -165,7 +168,7 @@ def do_formsemestre_archive(
|
||||||
)
|
)
|
||||||
# Classeur bulletins (PDF)
|
# Classeur bulletins (PDF)
|
||||||
data, _ = sco_bulletins_pdf.get_formsemestre_bulletins_pdf(
|
data, _ = sco_bulletins_pdf.get_formsemestre_bulletins_pdf(
|
||||||
formsemestre_id, version=bul_version
|
formsemestre.id, version=bul_version
|
||||||
)
|
)
|
||||||
if data:
|
if data:
|
||||||
PV_ARCHIVER.store(
|
PV_ARCHIVER.store(
|
||||||
|
@ -173,10 +176,11 @@ def do_formsemestre_archive(
|
||||||
"Bulletins.pdf",
|
"Bulletins.pdf",
|
||||||
data,
|
data,
|
||||||
dept_id=formsemestre.dept_id,
|
dept_id=formsemestre.dept_id,
|
||||||
|
compress=True,
|
||||||
)
|
)
|
||||||
# Lettres individuelles (PDF):
|
# Lettres individuelles (PDF):
|
||||||
data = sco_pv_lettres_inviduelles.pdf_lettres_individuelles(
|
data = sco_pv_lettres_inviduelles.pdf_lettres_individuelles(
|
||||||
formsemestre_id,
|
formsemestre.id,
|
||||||
etudids=etudids,
|
etudids=etudids,
|
||||||
date_jury=date_jury,
|
date_jury=date_jury,
|
||||||
date_commission=date_commission,
|
date_commission=date_commission,
|
||||||
|
@ -217,7 +221,7 @@ def formsemestre_archive(formsemestre_id, group_ids: list[int] = None):
|
||||||
"""Make and store new archive for this formsemestre.
|
"""Make and store new archive for this formsemestre.
|
||||||
(all students or only selected groups)
|
(all students or only selected groups)
|
||||||
"""
|
"""
|
||||||
formsemestre: FormSemestre = FormSemestre.query.get_or_404(formsemestre_id)
|
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
||||||
if not formsemestre.can_edit_pv():
|
if not formsemestre.can_edit_pv():
|
||||||
raise ScoPermissionDenied(
|
raise ScoPermissionDenied(
|
||||||
dest_url=url_for(
|
dest_url=url_for(
|
||||||
|
@ -320,7 +324,7 @@ enregistrés et non modifiables, on peut les retrouver ultérieurement.
|
||||||
else:
|
else:
|
||||||
tf[2]["anonymous"] = False
|
tf[2]["anonymous"] = False
|
||||||
do_formsemestre_archive(
|
do_formsemestre_archive(
|
||||||
formsemestre_id,
|
formsemestre,
|
||||||
group_ids=group_ids,
|
group_ids=group_ids,
|
||||||
description=tf[2]["description"],
|
description=tf[2]["description"],
|
||||||
date_jury=tf[2]["date_jury"],
|
date_jury=tf[2]["date_jury"],
|
||||||
|
@ -352,7 +356,7 @@ def formsemestre_list_archives(formsemestre_id):
|
||||||
"""Page listing archives"""
|
"""Page listing archives"""
|
||||||
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
||||||
sem_archive_id = formsemestre_id
|
sem_archive_id = formsemestre_id
|
||||||
L = []
|
archives_descr = []
|
||||||
for archive_id in PV_ARCHIVER.list_obj_archives(
|
for archive_id in PV_ARCHIVER.list_obj_archives(
|
||||||
sem_archive_id, dept_id=formsemestre.dept_id
|
sem_archive_id, dept_id=formsemestre.dept_id
|
||||||
):
|
):
|
||||||
|
@ -366,28 +370,30 @@ def formsemestre_list_archives(formsemestre_id):
|
||||||
archive_id, dept_id=formsemestre.dept_id
|
archive_id, dept_id=formsemestre.dept_id
|
||||||
),
|
),
|
||||||
}
|
}
|
||||||
L.append(a)
|
archives_descr.append(a)
|
||||||
|
|
||||||
H = [html_sco_header.html_sem_header("Archive des PV et résultats ")]
|
H = [html_sco_header.html_sem_header("Archive des PV et résultats ")]
|
||||||
if not L:
|
if not archives_descr:
|
||||||
H.append("<p>aucune archive enregistrée</p>")
|
H.append("<p>aucune archive enregistrée</p>")
|
||||||
else:
|
else:
|
||||||
H.append("<ul>")
|
H.append("<ul>")
|
||||||
for a in L:
|
for a in archives_descr:
|
||||||
archive_name = PV_ARCHIVER.get_archive_name(a["archive_id"])
|
archive_name = PV_ARCHIVER.get_archive_name(a["archive_id"])
|
||||||
H.append(
|
H.append(
|
||||||
'<li>%s : <em>%s</em> (<a href="formsemestre_delete_archive?formsemestre_id=%s&archive_name=%s">supprimer</a>)<ul>'
|
f"""<li>{a["date"].strftime("%d/%m/%Y %H:%M")} : <em>{a["description"]}</em>
|
||||||
% (
|
(<a href="{ url_for( "notes.formsemestre_delete_archive", scodoc_dept=g.scodoc_dept,
|
||||||
a["date"].strftime("%d/%m/%Y %H:%M"),
|
formsemestre_id=formsemestre_id, archive_name=archive_name
|
||||||
a["description"],
|
)}">supprimer</a>)
|
||||||
formsemestre_id,
|
<ul>"""
|
||||||
archive_name,
|
|
||||||
)
|
|
||||||
)
|
)
|
||||||
for filename in a["content"]:
|
for filename in a["content"]:
|
||||||
H.append(
|
H.append(
|
||||||
'<li><a href="formsemestre_get_archived_file?formsemestre_id=%s&archive_name=%s&filename=%s">%s</a></li>'
|
f"""<li><a href="{
|
||||||
% (formsemestre_id, archive_name, filename, filename)
|
url_for( "notes.formsemestre_get_archived_file", scodoc_dept=g.scodoc_dept,
|
||||||
|
formsemestre_id=formsemestre_id,
|
||||||
|
archive_name=archive_name,
|
||||||
|
filename=filename
|
||||||
|
)}">{filename[:-3] if filename.endswith(".gz") else filename}</a></li>"""
|
||||||
)
|
)
|
||||||
if not a["content"]:
|
if not a["content"]:
|
||||||
H.append("<li><em>aucun fichier !</em></li>")
|
H.append("<li><em>aucun fichier !</em></li>")
|
||||||
|
@ -399,7 +405,7 @@ def formsemestre_list_archives(formsemestre_id):
|
||||||
|
|
||||||
def formsemestre_get_archived_file(formsemestre_id, archive_name, filename):
|
def formsemestre_get_archived_file(formsemestre_id, archive_name, filename):
|
||||||
"""Send file to client."""
|
"""Send file to client."""
|
||||||
formsemestre: FormSemestre = FormSemestre.query.get_or_404(formsemestre_id)
|
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
||||||
sem_archive_id = formsemestre.id
|
sem_archive_id = formsemestre.id
|
||||||
return PV_ARCHIVER.get_archived_file(
|
return PV_ARCHIVER.get_archived_file(
|
||||||
sem_archive_id, archive_name, filename, dept_id=formsemestre.dept_id
|
sem_archive_id, archive_name, filename, dept_id=formsemestre.dept_id
|
||||||
|
|
|
@ -20,8 +20,11 @@ class Trace:
|
||||||
|
|
||||||
Role des fichiers traces :
|
Role des fichiers traces :
|
||||||
- Sauvegarder la date de dépôt du fichier
|
- Sauvegarder la date de dépôt du fichier
|
||||||
- Sauvegarder la date de suppression du fichier (dans le cas de plusieurs fichiers pour un même justif)
|
- Sauvegarder la date de suppression du fichier
|
||||||
- Sauvegarder l'user_id de l'utilisateur ayant déposé le fichier (=> permet de montrer les fichiers qu'aux personnes qui l'on déposé / qui ont le rôle AssiJustifView)
|
(dans le cas de plusieurs fichiers pour un même justif)
|
||||||
|
- Sauvegarder l'user_id de l'utilisateur ayant déposé le fichier
|
||||||
|
(=> permet de montrer les fichiers qu'aux personnes
|
||||||
|
qui l'on déposé / qui ont le rôle AssiJustifView)
|
||||||
|
|
||||||
_trace.csv :
|
_trace.csv :
|
||||||
nom_fichier_srv,datetime_depot,datetime_suppr,user_id
|
nom_fichier_srv,datetime_depot,datetime_suppr,user_id
|
||||||
|
|
|
@ -17,7 +17,7 @@ from app.models import (
|
||||||
ModuleImplInscription,
|
ModuleImplInscription,
|
||||||
ScoDocSiteConfig,
|
ScoDocSiteConfig,
|
||||||
)
|
)
|
||||||
from app.models.assiduites import Assiduite, Justificatif, compute_assiduites_justified
|
from app.models.assiduites import Assiduite, Justificatif
|
||||||
from app.scodoc import sco_formsemestre_inscriptions
|
from app.scodoc import sco_formsemestre_inscriptions
|
||||||
from app.scodoc import sco_preferences
|
from app.scodoc import sco_preferences
|
||||||
from app.scodoc import sco_cache
|
from app.scodoc import sco_cache
|
||||||
|
@ -37,21 +37,34 @@ class CountCalculator:
|
||||||
------------
|
------------
|
||||||
1. Initialisation : La classe peut être initialisée avec des horaires personnalisés
|
1. Initialisation : La classe peut être initialisée avec des horaires personnalisés
|
||||||
pour le matin, le midi et le soir, ainsi qu'une durée de pause déjeuner.
|
pour le matin, le midi et le soir, ainsi qu'une durée de pause déjeuner.
|
||||||
Si non spécifiés, les valeurs par défaut seront chargées depuis la configuration `ScoDocSiteConfig`.
|
Si non spécifiés, les valeurs par défaut seront
|
||||||
|
chargées depuis la configuration `ScoDocSiteConfig`.
|
||||||
Exemple d'initialisation :
|
Exemple d'initialisation :
|
||||||
calculator = CountCalculator(morning="08:00", noon="13:00", evening="18:00", nb_heures_par_jour=8)
|
calculator = CountCalculator(
|
||||||
|
morning="08:00",
|
||||||
|
noon="13:00",
|
||||||
|
evening="18:00",
|
||||||
|
nb_heures_par_jour=8
|
||||||
|
)
|
||||||
|
|
||||||
2. Ajout d'assiduités :
|
2. Ajout d'assiduités :
|
||||||
Exemple d'ajout d'assiduité :
|
Exemple d'ajout d'assiduité :
|
||||||
- calculator.compute_assiduites(etudiant.assiduites)
|
- calculator.compute_assiduites(etudiant.assiduites)
|
||||||
- calculator.compute_assiduites([<Assiduite>, <Assiduite>, <Assiduite>, <Assiduite>])
|
- calculator.compute_assiduites([
|
||||||
|
<Assiduite>,
|
||||||
|
<Assiduite>,
|
||||||
|
<Assiduite>,
|
||||||
|
<Assiduite>
|
||||||
|
])
|
||||||
|
|
||||||
3. Accès aux métriques : Après l'ajout des assiduités, on peut accéder aux métriques telles que :
|
3. Accès aux métriques : Après l'ajout des assiduités,
|
||||||
|
on peut accéder aux métriques telles que :
|
||||||
le nombre total de jours, de demi-journées et d'heures calculées.
|
le nombre total de jours, de demi-journées et d'heures calculées.
|
||||||
Exemple d'accès aux métriques :
|
Exemple d'accès aux métriques :
|
||||||
metrics = calculator.to_dict()
|
metrics = calculator.to_dict()
|
||||||
|
|
||||||
4.Réinitialisation du comptage: Si besoin on peut réinitialisé le compteur sans perdre la configuration
|
4.Réinitialisation du comptage: Si besoin on peut réinitialiser
|
||||||
|
le compteur sans perdre la configuration
|
||||||
(horaires personnalisés)
|
(horaires personnalisés)
|
||||||
Exemple de réinitialisation :
|
Exemple de réinitialisation :
|
||||||
calculator.reset()
|
calculator.reset()
|
||||||
|
@ -61,8 +74,10 @@ class CountCalculator:
|
||||||
- reset() : Réinitialise les compteurs de la classe.
|
- reset() : Réinitialise les compteurs de la classe.
|
||||||
- add_half_day(day: date, is_morning: bool) : Ajoute une demi-journée au comptage.
|
- add_half_day(day: date, is_morning: bool) : Ajoute une demi-journée au comptage.
|
||||||
- add_day(day: date) : Ajoute un jour complet au comptage.
|
- add_day(day: date) : Ajoute un jour complet au comptage.
|
||||||
- compute_long_assiduite(assi: Assiduite) : Traite les assiduités s'étendant sur plus d'un jour.
|
- compute_long_assiduite(assi: Assiduite) : Traite les assiduités
|
||||||
- compute_assiduites(assiduites: Query | list) : Calcule les métriques pour une collection d'assiduités.
|
s'étendant sur plus d'un jour.
|
||||||
|
- compute_assiduites(assiduites: Query | list) : Calcule les métriques pour
|
||||||
|
une collection d'assiduités.
|
||||||
- to_dict() : Retourne les métriques sous forme de dictionnaire.
|
- to_dict() : Retourne les métriques sous forme de dictionnaire.
|
||||||
|
|
||||||
Notes :
|
Notes :
|
||||||
|
@ -85,17 +100,14 @@ class CountCalculator:
|
||||||
evening: str = None,
|
evening: str = None,
|
||||||
nb_heures_par_jour: int = None,
|
nb_heures_par_jour: int = None,
|
||||||
) -> None:
|
) -> None:
|
||||||
# Transformation d'une heure "HH:MM" en time(h,m)
|
self.morning: time = str_to_time(
|
||||||
STR_TIME = lambda x: time(*list(map(int, x.split(":"))))
|
|
||||||
|
|
||||||
self.morning: time = STR_TIME(
|
|
||||||
morning if morning else ScoDocSiteConfig.get("assi_morning_time", "08:00")
|
morning if morning else ScoDocSiteConfig.get("assi_morning_time", "08:00")
|
||||||
)
|
)
|
||||||
# Date pivot pour déterminer les demi-journées
|
# Date pivot pour déterminer les demi-journées
|
||||||
self.noon: time = STR_TIME(
|
self.noon: time = str_to_time(
|
||||||
noon if noon else ScoDocSiteConfig.get("assi_lunch_time", "13:00")
|
noon if noon else ScoDocSiteConfig.get("assi_lunch_time", "13:00")
|
||||||
)
|
)
|
||||||
self.evening: time = STR_TIME(
|
self.evening: time = str_to_time(
|
||||||
evening if evening else ScoDocSiteConfig.get("assi_afternoon_time", "18:00")
|
evening if evening else ScoDocSiteConfig.get("assi_afternoon_time", "18:00")
|
||||||
)
|
)
|
||||||
|
|
||||||
|
@ -103,10 +115,6 @@ class CountCalculator:
|
||||||
scu.NonWorkDays.get_all_non_work_days(dept_id=g.scodoc_dept_id)
|
scu.NonWorkDays.get_all_non_work_days(dept_id=g.scodoc_dept_id)
|
||||||
)
|
)
|
||||||
|
|
||||||
delta_total: timedelta = datetime.combine(
|
|
||||||
date.min, self.evening
|
|
||||||
) - datetime.combine(date.min, self.morning)
|
|
||||||
|
|
||||||
# Sera utilisé pour les assiduités longues (> 1 journée)
|
# Sera utilisé pour les assiduités longues (> 1 journée)
|
||||||
self.nb_heures_par_jour = (
|
self.nb_heures_par_jour = (
|
||||||
nb_heures_par_jour
|
nb_heures_par_jour
|
||||||
|
@ -340,26 +348,62 @@ class CountCalculator:
|
||||||
|
|
||||||
def setup_data(self):
|
def setup_data(self):
|
||||||
"""Met en forme les données
|
"""Met en forme les données
|
||||||
pour les journées et les demi-journées : au lieu d'avoir list[str] on a le nombre (len(list[str]))
|
pour les journées et les demi-journées :
|
||||||
|
au lieu d'avoir list[str] on a le nombre (len(list[str]))
|
||||||
"""
|
"""
|
||||||
for key in self.data:
|
for value in self.data.values():
|
||||||
self.data[key]["journee"] = len(self.data[key]["journee"])
|
value["journee"] = len(value["journee"])
|
||||||
self.data[key]["demi"] = len(self.data[key]["demi"])
|
value["demi"] = len(value["demi"])
|
||||||
|
|
||||||
def to_dict(self, only_total: bool = True) -> dict[str, int | float]:
|
def to_dict(self, only_total: bool = True) -> dict[str, int | float]:
|
||||||
"""Retourne les métriques sous la forme d'un dictionnaire"""
|
"""Retourne les métriques sous la forme d'un dictionnaire"""
|
||||||
return self.data["total"] if only_total else self.data
|
return self.data["total"] if only_total else self.data
|
||||||
|
|
||||||
|
|
||||||
|
def str_to_time(time_str: str) -> time:
|
||||||
|
"""Convertit une chaîne de caractères représentant une heure en objet time
|
||||||
|
exemples :
|
||||||
|
- "08:00" -> time(8, 0)
|
||||||
|
- "18:00:00" -> time(18, 0, 0)
|
||||||
|
"""
|
||||||
|
return time(*list(map(int, time_str.split(":"))))
|
||||||
|
|
||||||
|
|
||||||
def get_assiduites_stats(
|
def get_assiduites_stats(
|
||||||
assiduites: Query, metric: str = "all", filtered: dict[str, object] = None
|
assiduites: Query, metric: str = "all", filtered: dict[str, object] = None
|
||||||
) -> dict[str, int | float]:
|
) -> dict[str, int | float]:
|
||||||
"""Compte les assiduités en fonction des filtres"""
|
"""
|
||||||
# XXX TODO-assiduite : documenter !!!
|
Calcule les statistiques sur les assiduités
|
||||||
# Que sont les filtres ? Quelles valeurs ?
|
(nombre de jours, demi-journées et heures passées,
|
||||||
# documenter permet de faire moins de bug: qualité du code non satisfaisante.
|
non justifiées, justifiées et total)
|
||||||
#
|
|
||||||
# + on se perd entre les clés en majuscules et en minuscules. Pourquoi
|
Les filtres :
|
||||||
|
- etat : filtre les assiduités par leur état
|
||||||
|
valeur : (absent, present, retard)
|
||||||
|
- date_debut/date_fin : prend les assiduités qui se trouvent entre les dates
|
||||||
|
valeur : datetime.datetime
|
||||||
|
- moduleimpl_id : filtre les assiduités en fonction du moduleimpl_id
|
||||||
|
valeur : int | None
|
||||||
|
- formsemestre : prend les assiduités du formsemestre donné
|
||||||
|
valeur : FormSemestre
|
||||||
|
- formsemestre_modimpls : prend les assiduités avec un moduleimpl du formsemestre
|
||||||
|
valeur : FormSemestre
|
||||||
|
- est_just : filtre les assiduités en fonction de si elles sont justifiées ou non
|
||||||
|
valeur : bool
|
||||||
|
- user_id : filtre les assiduités en fonction de l'utilisateur qui les a créées
|
||||||
|
valeur : int
|
||||||
|
- split : effectue un comptage par état d'assiduité
|
||||||
|
valeur : str (du moment que la clé est présente dans filtered)
|
||||||
|
|
||||||
|
Les métriques :
|
||||||
|
- journee : comptage en nombre de journée
|
||||||
|
- demi : comptage en nombre de demi journée
|
||||||
|
- heure : comptage en heure
|
||||||
|
- compte : nombre d'objets
|
||||||
|
- all : renvoi toute les métriques
|
||||||
|
|
||||||
|
|
||||||
|
"""
|
||||||
|
|
||||||
if filtered is not None:
|
if filtered is not None:
|
||||||
deb, fin = None, None
|
deb, fin = None, None
|
||||||
|
@ -396,34 +440,71 @@ def get_assiduites_stats(
|
||||||
calculator: CountCalculator = CountCalculator()
|
calculator: CountCalculator = CountCalculator()
|
||||||
calculator.compute_assiduites(assiduites)
|
calculator.compute_assiduites(assiduites)
|
||||||
|
|
||||||
|
# S'il n'y a pas de filtre ou que le filtre split n'est pas dans les filtres
|
||||||
if filtered is None or "split" not in filtered:
|
if filtered is None or "split" not in filtered:
|
||||||
|
# On récupère le comptage total
|
||||||
|
# only_total permet de ne récupérer que le total
|
||||||
count: dict = calculator.to_dict(only_total=True)
|
count: dict = calculator.to_dict(only_total=True)
|
||||||
|
|
||||||
|
# On ne garde que les métriques demandées
|
||||||
for key, val in count.items():
|
for key, val in count.items():
|
||||||
if key in metrics:
|
if key in metrics:
|
||||||
output[key] = val
|
output[key] = val
|
||||||
|
# On renvoie le total si on a rien demandé (ou que metrics == ["all"])
|
||||||
return output if output else count
|
return output if output else count
|
||||||
|
|
||||||
# Récupération des états
|
|
||||||
etats: list[str] = (
|
|
||||||
filtered["etat"].split(",") if "etat" in filtered else scu.EtatAssiduite.all()
|
|
||||||
)
|
|
||||||
|
|
||||||
# être sur que les états sont corrects
|
|
||||||
etats = [etat for etat in etats if etat.upper() in scu.EtatAssiduite.all()]
|
|
||||||
|
|
||||||
# Préparation du dictionnaire de retour avec les valeurs du calcul
|
# Préparation du dictionnaire de retour avec les valeurs du calcul
|
||||||
count: dict = calculator.to_dict(only_total=False)
|
count: dict = calculator.to_dict(only_total=False)
|
||||||
|
|
||||||
|
# Récupération des états depuis la saisie utilisateur
|
||||||
|
etats: list[str] = (
|
||||||
|
filtered["etat"].split(",") if "etat" in filtered else scu.EtatAssiduite.all()
|
||||||
|
)
|
||||||
for etat in etats:
|
for etat in etats:
|
||||||
# TODO-assiduite: on se perd entre les lower et upper.
|
# On vérifie que l'état est bien un état d'assiduité
|
||||||
# Pourquoi EtatAssiduite est en majuscules si tout le reste est en minuscules ?
|
# sinon on passe à l'état suivant
|
||||||
etat = etat.lower()
|
if not scu.EtatAssiduite.contains(etat):
|
||||||
|
continue
|
||||||
|
|
||||||
|
# On récupère le comptage pour chaque état
|
||||||
if etat != "present":
|
if etat != "present":
|
||||||
output[etat] = count[etat]
|
output[etat] = count[etat]
|
||||||
output[etat]["justifie"] = count[etat + "_just"]
|
output[etat]["justifie"] = count[etat + "_just"]
|
||||||
output[etat]["non_justifie"] = count[etat + "_non_just"]
|
output[etat]["non_justifie"] = count[etat + "_non_just"]
|
||||||
else:
|
else:
|
||||||
output[etat] = count[etat]
|
output[etat] = count[etat]
|
||||||
|
|
||||||
output["total"] = count["total"]
|
output["total"] = count["total"]
|
||||||
|
|
||||||
|
# le dictionnaire devrait ressembler à :
|
||||||
|
# {
|
||||||
|
# "absent": {
|
||||||
|
# "journee": 1,
|
||||||
|
# "demi": 2,
|
||||||
|
# "heure": 3,
|
||||||
|
# "compte": 4,
|
||||||
|
# "justifie": {
|
||||||
|
# "journee": 1,
|
||||||
|
# "demi": 2,
|
||||||
|
# "heure": 3,
|
||||||
|
# "compte": 4
|
||||||
|
# },
|
||||||
|
# "non_justifie": {
|
||||||
|
# "journee": 1,
|
||||||
|
# "demi": 2,
|
||||||
|
# "heure": 3,
|
||||||
|
# "compte": 4
|
||||||
|
# }
|
||||||
|
# },
|
||||||
|
# ...
|
||||||
|
# "total": {
|
||||||
|
# "journee": 1,
|
||||||
|
# "demi": 2,
|
||||||
|
# "heure": 3,
|
||||||
|
# "compte": 4
|
||||||
|
# }
|
||||||
|
# }
|
||||||
|
|
||||||
return output
|
return output
|
||||||
|
|
||||||
|
|
||||||
|
@ -643,7 +724,7 @@ def create_absence_billet(
|
||||||
db.session.add(justi)
|
db.session.add(justi)
|
||||||
db.session.commit()
|
db.session.commit()
|
||||||
|
|
||||||
compute_assiduites_justified(etud.id, [justi])
|
justi.justifier_assiduites()
|
||||||
|
|
||||||
calculator: CountCalculator = CountCalculator()
|
calculator: CountCalculator = CountCalculator()
|
||||||
calculator.compute_assiduites([assiduite_unique])
|
calculator.compute_assiduites([assiduite_unique])
|
||||||
|
@ -651,9 +732,9 @@ def create_absence_billet(
|
||||||
|
|
||||||
|
|
||||||
# Gestion du cache
|
# Gestion du cache
|
||||||
def get_assiduites_count(etudid: int, sem: dict) -> tuple[int, int]:
|
def get_assiduites_count(etudid: int, sem: dict) -> tuple[int, int, int]:
|
||||||
"""Les comptes d'absences de cet étudiant dans ce semestre:
|
"""Les comptes d'absences de cet étudiant dans ce semestre:
|
||||||
tuple (nb abs non justifiées, nb abs justifiées)
|
tuple (nb abs non justifiées, nb abs justifiées, nb abs total)
|
||||||
Utilise un cache.
|
Utilise un cache.
|
||||||
"""
|
"""
|
||||||
metrique = sco_preferences.get_preference("assi_metrique", sem["formsemestre_id"])
|
metrique = sco_preferences.get_preference("assi_metrique", sem["formsemestre_id"])
|
||||||
|
@ -667,19 +748,19 @@ def get_assiduites_count(etudid: int, sem: dict) -> tuple[int, int]:
|
||||||
|
|
||||||
def formsemestre_get_assiduites_count(
|
def formsemestre_get_assiduites_count(
|
||||||
etudid: int, formsemestre: FormSemestre, moduleimpl_id: int = None
|
etudid: int, formsemestre: FormSemestre, moduleimpl_id: int = None
|
||||||
) -> tuple[int, int]:
|
) -> tuple[int, int, int]:
|
||||||
"""Les comptes d'absences de cet étudiant dans ce semestre:
|
"""Les comptes d'absences de cet étudiant dans ce semestre:
|
||||||
tuple (nb abs non justifiées, nb abs justifiées)
|
tuple (nb abs non justifiées, nb abs justifiées, nb abs total)
|
||||||
Utilise un cache.
|
Utilise un cache.
|
||||||
"""
|
"""
|
||||||
metrique = sco_preferences.get_preference("assi_metrique", formsemestre.id)
|
metrique = sco_preferences.get_preference("assi_metrique", formsemestre.id)
|
||||||
return get_assiduites_count_in_interval(
|
return get_assiduites_count_in_interval(
|
||||||
etudid,
|
etudid,
|
||||||
date_debut=scu.localize_datetime(
|
date_debut=scu.localize_datetime(
|
||||||
datetime.combine(formsemestre.date_debut, time(8, 0))
|
datetime.combine(formsemestre.date_debut, time(0, 0))
|
||||||
),
|
),
|
||||||
date_fin=scu.localize_datetime(
|
date_fin=scu.localize_datetime(
|
||||||
datetime.combine(formsemestre.date_fin, time(18, 0))
|
datetime.combine(formsemestre.date_fin, time(23, 0))
|
||||||
),
|
),
|
||||||
metrique=scu.translate_assiduites_metric(metrique),
|
metrique=scu.translate_assiduites_metric(metrique),
|
||||||
moduleimpl_id=moduleimpl_id,
|
moduleimpl_id=moduleimpl_id,
|
||||||
|
@ -694,14 +775,14 @@ def get_assiduites_count_in_interval(
|
||||||
date_debut: datetime = None,
|
date_debut: datetime = None,
|
||||||
date_fin: datetime = None,
|
date_fin: datetime = None,
|
||||||
moduleimpl_id: int = None,
|
moduleimpl_id: int = None,
|
||||||
):
|
) -> tuple[int, int, int]:
|
||||||
"""Les comptes d'absences de cet étudiant entre ces deux dates, incluses:
|
"""Les comptes d'absences de cet étudiant entre ces deux dates, incluses:
|
||||||
tuple (nb abs, nb abs justifiées)
|
tuple (nb abs non justifiées, nb abs justifiées, nb abs total)
|
||||||
On peut spécifier les dates comme datetime ou iso.
|
On peut spécifier les dates comme datetime ou iso.
|
||||||
Utilise un cache.
|
Utilise un cache.
|
||||||
"""
|
"""
|
||||||
date_debut_iso = date_debut_iso or date_debut.isoformat()
|
date_debut_iso = date_debut_iso or date_debut.strftime("%Y-%m-%d")
|
||||||
date_fin_iso = date_fin_iso or date_fin.isoformat()
|
date_fin_iso = date_fin_iso or date_fin.strftime("%Y-%m-%d")
|
||||||
key = f"{etudid}_{date_debut_iso}_{date_fin_iso}_assiduites"
|
key = f"{etudid}_{date_debut_iso}_{date_fin_iso}_assiduites"
|
||||||
|
|
||||||
r = sco_cache.AbsSemEtudCache.get(key)
|
r = sco_cache.AbsSemEtudCache.get(key)
|
||||||
|
@ -726,9 +807,10 @@ def get_assiduites_count_in_interval(
|
||||||
if not ans:
|
if not ans:
|
||||||
log("warning: get_assiduites_count failed to cache")
|
log("warning: get_assiduites_count failed to cache")
|
||||||
|
|
||||||
nb_abs: dict = r["absent"][metrique]
|
nb_abs: int = r["absent"][metrique]
|
||||||
nb_abs_just: dict = r["absent_just"][metrique]
|
nb_abs_nj: int = r["absent_non_just"][metrique]
|
||||||
return (nb_abs, nb_abs_just)
|
nb_abs_just: int = r["absent_just"][metrique]
|
||||||
|
return (nb_abs_nj, nb_abs_just, nb_abs)
|
||||||
|
|
||||||
|
|
||||||
def invalidate_assiduites_count(etudid: int, sem: dict):
|
def invalidate_assiduites_count(etudid: int, sem: dict):
|
||||||
|
@ -756,7 +838,6 @@ def invalidate_assiduites_etud_date(etudid: int, the_date: datetime):
|
||||||
pour cet étudiant et cette date.
|
pour cet étudiant et cette date.
|
||||||
Invalide cache absence et caches semestre
|
Invalide cache absence et caches semestre
|
||||||
"""
|
"""
|
||||||
from app.scodoc import sco_compute_moy
|
|
||||||
|
|
||||||
# Semestres a cette date:
|
# Semestres a cette date:
|
||||||
etud = sco_etud.get_etud_info(etudid=etudid, filled=True)
|
etud = sco_etud.get_etud_info(etudid=etudid, filled=True)
|
||||||
|
@ -776,17 +857,9 @@ def invalidate_assiduites_etud_date(etudid: int, the_date: datetime):
|
||||||
# Invalide les PDF et les absences:
|
# Invalide les PDF et les absences:
|
||||||
for sem in sems:
|
for sem in sems:
|
||||||
# Inval cache bulletin et/ou note_table
|
# Inval cache bulletin et/ou note_table
|
||||||
if sco_compute_moy.formsemestre_expressions_use_abscounts(
|
# efface toujours le PDF car il affiche en général les absences
|
||||||
sem["formsemestre_id"]
|
|
||||||
):
|
|
||||||
# certaines formules utilisent les absences
|
|
||||||
pdfonly = False
|
|
||||||
else:
|
|
||||||
# efface toujours le PDF car il affiche en général les absences
|
|
||||||
pdfonly = True
|
|
||||||
|
|
||||||
sco_cache.invalidate_formsemestre(
|
sco_cache.invalidate_formsemestre(
|
||||||
formsemestre_id=sem["formsemestre_id"], pdfonly=pdfonly
|
formsemestre_id=sem["formsemestre_id"], pdfonly=True
|
||||||
)
|
)
|
||||||
|
|
||||||
# Inval cache compteurs absences:
|
# Inval cache compteurs absences:
|
||||||
|
@ -818,4 +891,4 @@ def simple_invalidate_cache(obj: dict, etudid: str | int = None):
|
||||||
pattern=f"tableau-etud-{etudid}*"
|
pattern=f"tableau-etud-{etudid}*"
|
||||||
)
|
)
|
||||||
# Invalide les tableaux "bilan dept"
|
# Invalide les tableaux "bilan dept"
|
||||||
sco_cache.RequeteTableauAssiduiteCache.delete_pattern(pattern=f"tableau-dept*")
|
sco_cache.RequeteTableauAssiduiteCache.delete_pattern(pattern="tableau-dept*")
|
||||||
|
|
102
app/scodoc/sco_bug_report.py
Normal file
102
app/scodoc/sco_bug_report.py
Normal file
|
@ -0,0 +1,102 @@
|
||||||
|
# -*- mode: python -*-
|
||||||
|
# -*- coding: utf-8 -*-
|
||||||
|
|
||||||
|
##############################################################################
|
||||||
|
#
|
||||||
|
# Gestion scolarite IUT
|
||||||
|
#
|
||||||
|
# Copyright (c) 1999 - 2024 Emmanuel Viennet. All rights reserved.
|
||||||
|
#
|
||||||
|
# This program is free software; you can redistribute it and/or modify
|
||||||
|
# it under the terms of the GNU General Public License as published by
|
||||||
|
# the Free Software Foundation; either version 2 of the License, or
|
||||||
|
# (at your option) any later version.
|
||||||
|
#
|
||||||
|
# This program is distributed in the hope that it will be useful,
|
||||||
|
# but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
||||||
|
# GNU General Public License for more details.
|
||||||
|
#
|
||||||
|
# You should have received a copy of the GNU General Public License
|
||||||
|
# along with this program; if not, write to the Free Software
|
||||||
|
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
|
||||||
|
#
|
||||||
|
# Emmanuel Viennet emmanuel.viennet@viennet.net
|
||||||
|
#
|
||||||
|
##############################################################################
|
||||||
|
|
||||||
|
"""Rapport de bug ScoDoc
|
||||||
|
|
||||||
|
Permet de créer un rapport de bug (ticket) sur la plateforme git scodoc.org.
|
||||||
|
|
||||||
|
Le principe est le suivant:
|
||||||
|
1- Si l'utilisateur le demande, on dump la base de données et on l'envoie
|
||||||
|
|
||||||
|
2- ScoDoc envoie une requête POST à scodoc.org pour qu'un ticket git soit créé avec les
|
||||||
|
informations fournies par l'utilisateur + quelques métadonnées.
|
||||||
|
|
||||||
|
"""
|
||||||
|
from flask import g
|
||||||
|
from flask_login import current_user
|
||||||
|
import requests
|
||||||
|
|
||||||
|
import app.scodoc.sco_utils as scu
|
||||||
|
import sco_version
|
||||||
|
|
||||||
|
from app import log
|
||||||
|
from app.scodoc.sco_dump_db import sco_dump_and_send_db
|
||||||
|
from app.scodoc.sco_exceptions import ScoValueError
|
||||||
|
|
||||||
|
|
||||||
|
def sco_bug_report(
|
||||||
|
title: str = "", message: str = "", etab: str = "", include_dump: bool = False
|
||||||
|
) -> requests.Response:
|
||||||
|
"""Envoi d'un bug report (ticket)"""
|
||||||
|
dump_id = None
|
||||||
|
|
||||||
|
if include_dump:
|
||||||
|
dump = sco_dump_and_send_db()
|
||||||
|
|
||||||
|
try:
|
||||||
|
dump_id = dump.json()["dump_id"]
|
||||||
|
except (requests.exceptions.JSONDecodeError, KeyError):
|
||||||
|
dump_id = "inconnu (erreur)"
|
||||||
|
|
||||||
|
log(f"sco_bug_report: {scu.SCO_BUG_REPORT_URL} by {current_user.user_name}")
|
||||||
|
try:
|
||||||
|
r = requests.post(
|
||||||
|
scu.SCO_BUG_REPORT_URL,
|
||||||
|
json={
|
||||||
|
"ticket": {
|
||||||
|
"title": title,
|
||||||
|
"message": message,
|
||||||
|
"etab": etab,
|
||||||
|
"dept": getattr(g, "scodoc_dept", "-"),
|
||||||
|
},
|
||||||
|
"user": {
|
||||||
|
"name": current_user.get_nomcomplet(),
|
||||||
|
"email": current_user.email,
|
||||||
|
},
|
||||||
|
"dump": {
|
||||||
|
"included": include_dump,
|
||||||
|
"id": dump_id,
|
||||||
|
},
|
||||||
|
"scodoc": {
|
||||||
|
"version": sco_version.SCOVERSION,
|
||||||
|
},
|
||||||
|
},
|
||||||
|
timeout=scu.SCO_ORG_TIMEOUT,
|
||||||
|
)
|
||||||
|
|
||||||
|
except (requests.exceptions.ConnectionError, requests.exceptions.Timeout) as exc:
|
||||||
|
log("ConnectionError: Impossible de joindre le serveur d'assistance")
|
||||||
|
raise ScoValueError(
|
||||||
|
"""
|
||||||
|
Impossible de joindre le serveur d'assistance (scodoc.org).
|
||||||
|
Veuillez contacter le service informatique de votre établissement pour
|
||||||
|
corriger la configuration de ScoDoc. Dans la plupart des cas, il
|
||||||
|
s'agit d'un proxy mal configuré.
|
||||||
|
"""
|
||||||
|
) from exc
|
||||||
|
|
||||||
|
return r
|
|
@ -126,7 +126,7 @@ def make_context_dict(formsemestre: FormSemestre, etud: dict) -> dict:
|
||||||
|
|
||||||
# ajoute date courante
|
# ajoute date courante
|
||||||
t = time.localtime()
|
t = time.localtime()
|
||||||
C["date_dmy"] = time.strftime("%d/%m/%Y", t)
|
C["date_dmy"] = time.strftime(scu.DATE_FMT, t)
|
||||||
C["date_iso"] = time.strftime("%Y-%m-%d", t)
|
C["date_iso"] = time.strftime("%Y-%m-%d", t)
|
||||||
|
|
||||||
return C
|
return C
|
||||||
|
@ -196,7 +196,7 @@ def formsemestre_bulletinetud_dict(formsemestre_id, etudid, version="long"):
|
||||||
pid = partition["partition_id"]
|
pid = partition["partition_id"]
|
||||||
partitions_etud_groups[pid] = sco_groups.get_etud_groups_in_partition(pid)
|
partitions_etud_groups[pid] = sco_groups.get_etud_groups_in_partition(pid)
|
||||||
# --- Absences
|
# --- Absences
|
||||||
I["nbabs"], I["nbabsjust"] = sco_assiduites.get_assiduites_count(etudid, nt.sem)
|
_, I["nbabsjust"], I["nbabs"] = sco_assiduites.get_assiduites_count(etudid, nt.sem)
|
||||||
|
|
||||||
# --- Decision Jury
|
# --- Decision Jury
|
||||||
infos, dpv = etud_descr_situation_semestre(
|
infos, dpv = etud_descr_situation_semestre(
|
||||||
|
@ -446,7 +446,8 @@ def _ue_mod_bulletin(
|
||||||
):
|
):
|
||||||
"""Infos sur les modules (et évaluations) dans une UE
|
"""Infos sur les modules (et évaluations) dans une UE
|
||||||
(ajoute les informations aux modimpls)
|
(ajoute les informations aux modimpls)
|
||||||
Result: liste de modules de l'UE avec les infos dans chacun (seulement ceux où l'étudiant est inscrit).
|
Result: liste de modules de l'UE avec les infos dans chacun (seulement
|
||||||
|
ceux où l'étudiant est inscrit).
|
||||||
"""
|
"""
|
||||||
bul_show_mod_rangs = sco_preferences.get_preference(
|
bul_show_mod_rangs = sco_preferences.get_preference(
|
||||||
"bul_show_mod_rangs", formsemestre_id
|
"bul_show_mod_rangs", formsemestre_id
|
||||||
|
@ -471,7 +472,7 @@ def _ue_mod_bulletin(
|
||||||
) # peut etre 'NI'
|
) # peut etre 'NI'
|
||||||
is_malus = mod["module"]["module_type"] == ModuleType.MALUS
|
is_malus = mod["module"]["module_type"] == ModuleType.MALUS
|
||||||
if bul_show_abs_modules:
|
if bul_show_abs_modules:
|
||||||
nbabs, nbabsjust = sco_assiduites.get_assiduites_count(etudid, sem)
|
_, nbabsjust, nbabs = sco_assiduites.get_assiduites_count(etudid, sem)
|
||||||
mod_abs = [nbabs, nbabsjust]
|
mod_abs = [nbabs, nbabsjust]
|
||||||
mod["mod_abs_txt"] = scu.fmt_abs(mod_abs)
|
mod["mod_abs_txt"] = scu.fmt_abs(mod_abs)
|
||||||
else:
|
else:
|
||||||
|
|
|
@ -61,7 +61,7 @@ from flask_login import current_user
|
||||||
|
|
||||||
from app.models import FormSemestre, Identite, ScoDocSiteConfig
|
from app.models import FormSemestre, Identite, ScoDocSiteConfig
|
||||||
from app.scodoc import sco_utils as scu
|
from app.scodoc import sco_utils as scu
|
||||||
from app.scodoc.sco_exceptions import NoteProcessError
|
from app.scodoc.sco_exceptions import NoteProcessError, ScoPDFFormatError
|
||||||
from app import log
|
from app import log
|
||||||
from app.scodoc import sco_formsemestre
|
from app.scodoc import sco_formsemestre
|
||||||
from app.scodoc import sco_pdf
|
from app.scodoc import sco_pdf
|
||||||
|
@ -226,9 +226,18 @@ class BulletinGenerator:
|
||||||
server_name=self.server_name,
|
server_name=self.server_name,
|
||||||
filigranne=self.filigranne,
|
filigranne=self.filigranne,
|
||||||
preferences=sco_preferences.SemPreferences(formsemestre_id),
|
preferences=sco_preferences.SemPreferences(formsemestre_id),
|
||||||
|
with_page_numbers=self.multi_pages,
|
||||||
)
|
)
|
||||||
)
|
)
|
||||||
document.build(story)
|
try:
|
||||||
|
document.build(story)
|
||||||
|
except (
|
||||||
|
ValueError,
|
||||||
|
KeyError,
|
||||||
|
reportlab.platypus.doctemplate.LayoutError,
|
||||||
|
) as exc:
|
||||||
|
raise ScoPDFFormatError(str(exc)) from exc
|
||||||
|
|
||||||
data = report.getvalue()
|
data = report.getvalue()
|
||||||
return data
|
return data
|
||||||
|
|
||||||
|
|
|
@ -89,7 +89,7 @@ def formsemestre_bulletinetud_published_dict(
|
||||||
version="long",
|
version="long",
|
||||||
) -> dict:
|
) -> dict:
|
||||||
"""Dictionnaire representant les informations _publiees_ du bulletin de notes
|
"""Dictionnaire representant les informations _publiees_ du bulletin de notes
|
||||||
Utilisé pour JSON, devrait l'être aussi pour XML. (todo)
|
Utilisé pour JSON des formations classiques (mais pas pour le XML, qui est deprecated).
|
||||||
|
|
||||||
version:
|
version:
|
||||||
short (sans les évaluations)
|
short (sans les évaluations)
|
||||||
|
@ -114,10 +114,8 @@ def formsemestre_bulletinetud_published_dict(
|
||||||
if etudid not in nt.identdict:
|
if etudid not in nt.identdict:
|
||||||
abort(404, "etudiant non inscrit dans ce semestre")
|
abort(404, "etudiant non inscrit dans ce semestre")
|
||||||
d = {"type": "classic", "version": "0"}
|
d = {"type": "classic", "version": "0"}
|
||||||
if (not sem["bul_hide_xml"]) or force_publishing:
|
|
||||||
published = True
|
published = (not formsemestre.bul_hide_xml) or force_publishing
|
||||||
else:
|
|
||||||
published = False
|
|
||||||
if xml_nodate:
|
if xml_nodate:
|
||||||
docdate = ""
|
docdate = ""
|
||||||
else:
|
else:
|
||||||
|
@ -171,6 +169,21 @@ def formsemestre_bulletinetud_published_dict(
|
||||||
pid = partition["partition_id"]
|
pid = partition["partition_id"]
|
||||||
partitions_etud_groups[pid] = sco_groups.get_etud_groups_in_partition(pid)
|
partitions_etud_groups[pid] = sco_groups.get_etud_groups_in_partition(pid)
|
||||||
|
|
||||||
|
# Il serait préférable de factoriser et d'avoir la même section
|
||||||
|
# "semestre" que celle des bulletins BUT.
|
||||||
|
etud_groups = sco_groups.get_etud_formsemestre_groups(
|
||||||
|
etud, formsemestre, only_to_show=True
|
||||||
|
)
|
||||||
|
d["semestre"] = {
|
||||||
|
"etapes": [str(x.etape_apo) for x in formsemestre.etapes if x.etape_apo],
|
||||||
|
"date_debut": formsemestre.date_debut.isoformat(),
|
||||||
|
"date_fin": formsemestre.date_fin.isoformat(),
|
||||||
|
"annee_universitaire": formsemestre.annee_scolaire_str(),
|
||||||
|
"numero": formsemestre.semestre_id,
|
||||||
|
"inscription": "", # inutilisé mais nécessaire pour le js de Seb.
|
||||||
|
"groupes": [group.to_dict() for group in etud_groups],
|
||||||
|
}
|
||||||
|
|
||||||
ues_stat = nt.get_ues_stat_dict()
|
ues_stat = nt.get_ues_stat_dict()
|
||||||
modimpls = nt.get_modimpls_dict()
|
modimpls = nt.get_modimpls_dict()
|
||||||
nbetuds = len(nt.etud_moy_gen_ranks)
|
nbetuds = len(nt.etud_moy_gen_ranks)
|
||||||
|
@ -296,7 +309,7 @@ def formsemestre_bulletinetud_published_dict(
|
||||||
|
|
||||||
# --- Absences
|
# --- Absences
|
||||||
if prefs["bul_show_abs"]:
|
if prefs["bul_show_abs"]:
|
||||||
nbabs, nbabsjust = sco_assiduites.get_assiduites_count(etudid, sem)
|
_, nbabsjust, nbabs = sco_assiduites.get_assiduites_count(etudid, sem)
|
||||||
d["absences"] = dict(nbabs=nbabs, nbabsjust=nbabsjust)
|
d["absences"] = dict(nbabs=nbabs, nbabsjust=nbabsjust)
|
||||||
|
|
||||||
# --- Décision Jury
|
# --- Décision Jury
|
||||||
|
|
|
@ -352,7 +352,7 @@ class BulletinGeneratorLegacy(sco_bulletins_generator.BulletinGenerator):
|
||||||
H.append(
|
H.append(
|
||||||
f"""<p>
|
f"""<p>
|
||||||
<span class="bull_appreciations_date">{
|
<span class="bull_appreciations_date">{
|
||||||
appreciation.date.strftime("%d/%m/%y") if appreciation.date else ""
|
appreciation.date.strftime(scu.DATE_FMT) if appreciation.date else ""
|
||||||
}</span>
|
}</span>
|
||||||
{appreciation.comment_safe()}
|
{appreciation.comment_safe()}
|
||||||
<span class="bull_appreciations_link">{mlink}</span>
|
<span class="bull_appreciations_link">{mlink}</span>
|
||||||
|
|
|
@ -106,6 +106,7 @@ def assemble_bulletins_pdf(
|
||||||
pagesbookmarks=pagesbookmarks,
|
pagesbookmarks=pagesbookmarks,
|
||||||
filigranne=filigranne,
|
filigranne=filigranne,
|
||||||
preferences=sco_preferences.SemPreferences(formsemestre_id),
|
preferences=sco_preferences.SemPreferences(formsemestre_id),
|
||||||
|
with_page_numbers=False, # on ne veut pas de no de pages sur les bulletins imprimés en masse
|
||||||
)
|
)
|
||||||
)
|
)
|
||||||
document.multiBuild(story)
|
document.multiBuild(story)
|
||||||
|
@ -122,7 +123,8 @@ def replacement_function(match) -> str:
|
||||||
return r'<img %s src="%s"%s/>' % (match.group(2), logo.filepath, match.group(4))
|
return r'<img %s src="%s"%s/>' % (match.group(2), logo.filepath, match.group(4))
|
||||||
raise ScoValueError(
|
raise ScoValueError(
|
||||||
'balise "%s": logo "%s" introuvable'
|
'balise "%s": logo "%s" introuvable'
|
||||||
% (pydoc.html.escape(balise), pydoc.html.escape(name))
|
% (pydoc.html.escape(balise), pydoc.html.escape(name)),
|
||||||
|
safe=True,
|
||||||
)
|
)
|
||||||
|
|
||||||
|
|
||||||
|
|
|
@ -114,6 +114,7 @@ class BulletinGeneratorStandard(sco_bulletins_generator.BulletinGenerator):
|
||||||
html_class="notes_bulletin",
|
html_class="notes_bulletin",
|
||||||
html_class_ignore_default=True,
|
html_class_ignore_default=True,
|
||||||
html_with_td_classes=True,
|
html_with_td_classes=True,
|
||||||
|
table_id="std_bul_table",
|
||||||
)
|
)
|
||||||
|
|
||||||
return T.gen(fmt=fmt)
|
return T.gen(fmt=fmt)
|
||||||
|
@ -182,7 +183,7 @@ class BulletinGeneratorStandard(sco_bulletins_generator.BulletinGenerator):
|
||||||
H.append(
|
H.append(
|
||||||
f"""<p>
|
f"""<p>
|
||||||
<span class="bull_appreciations_date">{
|
<span class="bull_appreciations_date">{
|
||||||
appreciation.date.strftime("%d/%m/%Y")
|
appreciation.date.strftime(scu.DATE_FMT)
|
||||||
if appreciation.date else ""}</span>
|
if appreciation.date else ""}</span>
|
||||||
{appreciation.comment_safe()}
|
{appreciation.comment_safe()}
|
||||||
<span class="bull_appreciations_link">{mlink}</span>
|
<span class="bull_appreciations_link">{mlink}</span>
|
||||||
|
|
|
@ -260,7 +260,7 @@ def make_xml_formsemestre_bulletinetud(
|
||||||
numero=str(mod["numero"]),
|
numero=str(mod["numero"]),
|
||||||
titre=quote_xml_attr(mod["titre"]),
|
titre=quote_xml_attr(mod["titre"]),
|
||||||
abbrev=quote_xml_attr(mod["abbrev"]),
|
abbrev=quote_xml_attr(mod["abbrev"]),
|
||||||
code_apogee=quote_xml_attr(mod["code_apogee"])
|
code_apogee=quote_xml_attr(mod["code_apogee"]),
|
||||||
# ects=ects ects des modules maintenant inutilisés
|
# ects=ects ects des modules maintenant inutilisés
|
||||||
)
|
)
|
||||||
x_ue.append(x_mod)
|
x_ue.append(x_mod)
|
||||||
|
@ -347,7 +347,7 @@ def make_xml_formsemestre_bulletinetud(
|
||||||
|
|
||||||
# --- Absences
|
# --- Absences
|
||||||
if sco_preferences.get_preference("bul_show_abs", formsemestre_id):
|
if sco_preferences.get_preference("bul_show_abs", formsemestre_id):
|
||||||
nbabs, nbabsjust = sco_assiduites.get_assiduites_count(etudid, sem)
|
_, nbabsjust, nbabs = sco_assiduites.get_assiduites_count(etudid, sem)
|
||||||
doc.append(Element("absences", nbabs=str(nbabs), nbabsjust=str(nbabsjust)))
|
doc.append(Element("absences", nbabs=str(nbabs), nbabsjust=str(nbabsjust)))
|
||||||
# --- Decision Jury
|
# --- Decision Jury
|
||||||
if (
|
if (
|
||||||
|
|
|
@ -55,7 +55,6 @@ from flask import g
|
||||||
|
|
||||||
import app
|
import app
|
||||||
from app import db, log
|
from app import db, log
|
||||||
from app.scodoc import notesdb as ndb
|
|
||||||
from app.scodoc import sco_utils as scu
|
from app.scodoc import sco_utils as scu
|
||||||
from app.scodoc.sco_exceptions import ScoException
|
from app.scodoc.sco_exceptions import ScoException
|
||||||
|
|
||||||
|
@ -174,17 +173,15 @@ class EvaluationCache(ScoDocCache):
|
||||||
@classmethod
|
@classmethod
|
||||||
def invalidate_all_sems(cls):
|
def invalidate_all_sems(cls):
|
||||||
"delete all evaluations in current dept from cache"
|
"delete all evaluations in current dept from cache"
|
||||||
|
from app.models.evaluations import Evaluation
|
||||||
|
from app.models.formsemestre import FormSemestre
|
||||||
|
from app.models.moduleimpls import ModuleImpl
|
||||||
|
|
||||||
evaluation_ids = [
|
evaluation_ids = [
|
||||||
x[0]
|
e.id
|
||||||
for x in ndb.SimpleQuery(
|
for e in Evaluation.query.join(ModuleImpl)
|
||||||
"""SELECT e.id
|
.join(FormSemestre)
|
||||||
FROM notes_evaluation e, notes_moduleimpl mi, notes_formsemestre s
|
.filter_by(dept_id=g.scodoc_dept_id)
|
||||||
WHERE s.dept_id=%(dept_id)s
|
|
||||||
AND s.id = mi.formsemestre_id
|
|
||||||
AND mi.id = e.moduleimpl_id;
|
|
||||||
""",
|
|
||||||
{"dept_id": g.scodoc_dept_id},
|
|
||||||
)
|
|
||||||
]
|
]
|
||||||
cls.delete_many(evaluation_ids)
|
cls.delete_many(evaluation_ids)
|
||||||
|
|
||||||
|
@ -277,6 +274,7 @@ def invalidate_formsemestre( # was inval_cache(formsemestre_id=None, pdfonly=Fa
|
||||||
"""expire cache pour un semestre (ou tous ceux du département si formsemestre_id non spécifié).
|
"""expire cache pour un semestre (ou tous ceux du département si formsemestre_id non spécifié).
|
||||||
Si pdfonly, n'expire que les bulletins pdf cachés.
|
Si pdfonly, n'expire que les bulletins pdf cachés.
|
||||||
"""
|
"""
|
||||||
|
from app.comp import df_cache
|
||||||
from app.models.formsemestre import FormSemestre
|
from app.models.formsemestre import FormSemestre
|
||||||
from app.scodoc import sco_cursus
|
from app.scodoc import sco_cursus
|
||||||
|
|
||||||
|
@ -318,12 +316,14 @@ def invalidate_formsemestre( # was inval_cache(formsemestre_id=None, pdfonly=Fa
|
||||||
and fid in g.formsemestre_results_cache
|
and fid in g.formsemestre_results_cache
|
||||||
):
|
):
|
||||||
del g.formsemestre_results_cache[fid]
|
del g.formsemestre_results_cache[fid]
|
||||||
|
df_cache.EvaluationsPoidsCache.invalidate_sem(formsemestre_id)
|
||||||
else:
|
else:
|
||||||
# optimization when we invalidate all evaluations:
|
# optimization when we invalidate all evaluations:
|
||||||
EvaluationCache.invalidate_all_sems()
|
EvaluationCache.invalidate_all_sems()
|
||||||
|
df_cache.EvaluationsPoidsCache.invalidate_all()
|
||||||
if hasattr(g, "formsemestre_results_cache"):
|
if hasattr(g, "formsemestre_results_cache"):
|
||||||
del g.formsemestre_results_cache
|
del g.formsemestre_results_cache
|
||||||
|
|
||||||
SemInscriptionsCache.delete_many(formsemestre_ids)
|
SemInscriptionsCache.delete_many(formsemestre_ids)
|
||||||
ResultatsSemestreCache.delete_many(formsemestre_ids)
|
ResultatsSemestreCache.delete_many(formsemestre_ids)
|
||||||
ValidationsSemestreCache.delete_many(formsemestre_ids)
|
ValidationsSemestreCache.delete_many(formsemestre_ids)
|
||||||
|
|
|
@ -29,7 +29,6 @@
|
||||||
"""
|
"""
|
||||||
|
|
||||||
import calendar
|
import calendar
|
||||||
import datetime
|
|
||||||
import html
|
import html
|
||||||
import time
|
import time
|
||||||
|
|
||||||
|
@ -231,41 +230,41 @@ def next_iso_day(date):
|
||||||
|
|
||||||
def YearTable(
|
def YearTable(
|
||||||
year,
|
year,
|
||||||
events=[],
|
events_by_day: dict[str, list[dict]],
|
||||||
firstmonth=9,
|
firstmonth=9,
|
||||||
lastmonth=7,
|
lastmonth=7,
|
||||||
halfday=0,
|
|
||||||
dayattributes="",
|
dayattributes="",
|
||||||
pad_width=8,
|
|
||||||
):
|
):
|
||||||
|
# Code simplifié en 2024: utilisé seulement pour calendrier évaluations
|
||||||
"""Generate a calendar table
|
"""Generate a calendar table
|
||||||
events = list of tuples (date, text, color, href [,halfday])
|
events = list of tuples (date, text, color, href [,halfday])
|
||||||
where date is a string in ISO format (yyyy-mm-dd)
|
where date is a string in ISO format (yyyy-mm-dd)
|
||||||
halfday is boolean (true: morning, false: afternoon)
|
halfday is boolean (true: morning, false: afternoon)
|
||||||
text = text to put in calendar (must be short, 1-5 cars) (optional)
|
text = text to put in calendar (must be short, 1-5 cars) (optional)
|
||||||
if halfday, generate 2 cells per day (morning, afternoon)
|
|
||||||
"""
|
"""
|
||||||
T = [
|
T = [
|
||||||
'<table id="maincalendar" class="maincalendar" border="3" cellpadding="1" cellspacing="1" frame="box">'
|
"""<table id="maincalendar" class="maincalendar"
|
||||||
|
border="3" cellpadding="1" cellspacing="1" frame="box">"""
|
||||||
]
|
]
|
||||||
T.append("<tr>")
|
T.append("<tr>")
|
||||||
month = firstmonth
|
month = firstmonth
|
||||||
while 1:
|
while True:
|
||||||
T.append('<td valign="top">')
|
T.append('<td valign="top">')
|
||||||
T.append(MonthTableHead(month))
|
T.append(_month_table_head(month))
|
||||||
T.append(
|
T.append(
|
||||||
MonthTableBody(
|
_month_table_body(
|
||||||
month,
|
month,
|
||||||
year,
|
year,
|
||||||
events,
|
events_by_day,
|
||||||
halfday,
|
|
||||||
dayattributes,
|
dayattributes,
|
||||||
is_work_saturday(),
|
is_work_saturday(),
|
||||||
pad_width=pad_width,
|
|
||||||
)
|
)
|
||||||
)
|
)
|
||||||
T.append(MonthTableTail())
|
T.append(
|
||||||
T.append("</td>")
|
"""
|
||||||
|
</table>
|
||||||
|
</td>"""
|
||||||
|
)
|
||||||
if month == lastmonth:
|
if month == lastmonth:
|
||||||
break
|
break
|
||||||
month = month + 1
|
month = month + 1
|
||||||
|
@ -323,29 +322,32 @@ WEEKDAYCOLOR = GRAY1
|
||||||
WEEKENDCOLOR = GREEN3
|
WEEKENDCOLOR = GREEN3
|
||||||
|
|
||||||
|
|
||||||
def MonthTableHead(month):
|
def _month_table_head(month):
|
||||||
color = WHITE
|
color = WHITE
|
||||||
return """<table class="monthcalendar" border="0" cellpadding="0" cellspacing="0" frame="box">
|
return f"""<table class="monthcalendar" border="0" cellpadding="0" cellspacing="0" frame="box">
|
||||||
<tr bgcolor="%s"><td class="calcol" colspan="2" align="center">%s</td></tr>\n""" % (
|
<tr bgcolor="{color}">
|
||||||
color,
|
<td class="calcol" colspan="2" align="center">{MONTHNAMES_ABREV[month - 1]}</td>
|
||||||
MONTHNAMES_ABREV[month - 1],
|
</tr>\n"""
|
||||||
)
|
|
||||||
|
|
||||||
|
|
||||||
def MonthTableTail():
|
def _month_table_body(
|
||||||
return "</table>\n"
|
month,
|
||||||
|
year,
|
||||||
|
events_by_day: dict[str, list[dict]],
|
||||||
def MonthTableBody(
|
trattributes="",
|
||||||
month, year, events=[], halfday=0, trattributes="", work_saturday=False, pad_width=8
|
work_saturday=False,
|
||||||
):
|
) -> str:
|
||||||
|
"""
|
||||||
|
events : [event]
|
||||||
|
event = [ yyyy-mm-dd, legend, href, color, descr ] XXX
|
||||||
|
"""
|
||||||
firstday, nbdays = calendar.monthrange(year, month)
|
firstday, nbdays = calendar.monthrange(year, month)
|
||||||
localtime = time.localtime()
|
localtime = time.localtime()
|
||||||
current_weeknum = time.strftime("%U", localtime)
|
current_weeknum = time.strftime("%U", localtime)
|
||||||
current_year = localtime[0]
|
current_year = localtime[0]
|
||||||
T = []
|
rows = []
|
||||||
# cherche date du lundi de la 1ere semaine de ce mois
|
# cherche date du lundi de la 1ere semaine de ce mois
|
||||||
monday = ddmmyyyy("1/%d/%d" % (month, year))
|
monday = ddmmyyyy(f"1/{month}/{year}")
|
||||||
while monday.weekday != 0:
|
while monday.weekday != 0:
|
||||||
monday = monday.prev()
|
monday = monday.prev()
|
||||||
|
|
||||||
|
@ -354,158 +356,51 @@ def MonthTableBody(
|
||||||
else:
|
else:
|
||||||
weekend = ("S", "D")
|
weekend = ("S", "D")
|
||||||
|
|
||||||
if not halfday:
|
for d in range(1, nbdays + 1):
|
||||||
for d in range(1, nbdays + 1):
|
weeknum = time.strftime(
|
||||||
weeknum = time.strftime(
|
"%U", time.strptime("%d/%d/%d" % (d, month, year), scu.DATE_FMT)
|
||||||
"%U", time.strptime("%d/%d/%d" % (d, month, year), "%d/%m/%Y")
|
)
|
||||||
)
|
day = DAYNAMES_ABREV[(firstday + d - 1) % 7]
|
||||||
day = DAYNAMES_ABREV[(firstday + d - 1) % 7]
|
if day in weekend:
|
||||||
if day in weekend:
|
bgcolor = WEEKENDCOLOR
|
||||||
bgcolor = WEEKENDCOLOR
|
weekclass = "wkend"
|
||||||
weekclass = "wkend"
|
attrs = ""
|
||||||
attrs = ""
|
else:
|
||||||
else:
|
bgcolor = WEEKDAYCOLOR
|
||||||
bgcolor = WEEKDAYCOLOR
|
weekclass = "wk" + str(monday).replace("/", "_")
|
||||||
weekclass = "wk" + str(monday).replace("/", "_")
|
attrs = trattributes
|
||||||
attrs = trattributes
|
# events this day ?
|
||||||
color = None
|
events = events_by_day.get(f"{year}-{month:02}-{d:02}", [])
|
||||||
legend = ""
|
color = None
|
||||||
href = ""
|
ev_txts = []
|
||||||
descr = ""
|
for ev in events:
|
||||||
# event this day ?
|
color = ev.get("color")
|
||||||
# each event is a tuple (date, text, color, href)
|
href = ev.get("href", "")
|
||||||
# where date is a string in ISO format (yyyy-mm-dd)
|
description = ev.get("description", "")
|
||||||
for ev in events:
|
|
||||||
ev_year = int(ev[0][:4])
|
|
||||||
ev_month = int(ev[0][5:7])
|
|
||||||
ev_day = int(ev[0][8:10])
|
|
||||||
if year == ev_year and month == ev_month and ev_day == d:
|
|
||||||
if ev[1]:
|
|
||||||
legend = ev[1]
|
|
||||||
if ev[2]:
|
|
||||||
color = ev[2]
|
|
||||||
if ev[3]:
|
|
||||||
href = ev[3]
|
|
||||||
if len(ev) > 4 and ev[4]:
|
|
||||||
descr = ev[4]
|
|
||||||
#
|
|
||||||
cc = []
|
|
||||||
if color is not None:
|
|
||||||
cc.append('<td bgcolor="%s" class="calcell">' % color)
|
|
||||||
else:
|
|
||||||
cc.append('<td class="calcell">')
|
|
||||||
|
|
||||||
if href:
|
if href:
|
||||||
href = 'href="%s"' % href
|
href = f'href="{href}"'
|
||||||
if descr:
|
if description:
|
||||||
descr = 'title="%s"' % html.escape(descr, quote=True)
|
description = f"""title="{html.escape(description, quote=True)}" """
|
||||||
if href or descr:
|
if href or description:
|
||||||
cc.append("<a %s %s>" % (href, descr))
|
ev_txts.append(f"""<a {href} {description}>{ev.get("title", "")}</a>""")
|
||||||
|
|
||||||
if legend or d == 1:
|
|
||||||
if pad_width is not None:
|
|
||||||
n = pad_width - len(legend) # pad to 8 cars
|
|
||||||
if n > 0:
|
|
||||||
legend = (
|
|
||||||
" " * (n // 2) + legend + " " * ((n + 1) // 2)
|
|
||||||
)
|
|
||||||
else:
|
else:
|
||||||
legend = " " # empty cell
|
ev_txts.append(ev.get("title", " "))
|
||||||
cc.append(legend)
|
#
|
||||||
if href or descr:
|
cc = []
|
||||||
cc.append("</a>")
|
if color is not None:
|
||||||
cc.append("</td>")
|
cc.append(f'<td bgcolor="{color}" class="calcell">')
|
||||||
cell = "".join(cc)
|
else:
|
||||||
if day == "D":
|
cc.append('<td class="calcell">')
|
||||||
monday = monday.next_day(7)
|
|
||||||
if (
|
|
||||||
weeknum == current_weeknum
|
|
||||||
and current_year == year
|
|
||||||
and weekclass != "wkend"
|
|
||||||
):
|
|
||||||
weekclass += " currentweek"
|
|
||||||
T.append(
|
|
||||||
'<tr bgcolor="%s" class="%s" %s><td class="calday">%d%s</td>%s</tr>'
|
|
||||||
% (bgcolor, weekclass, attrs, d, day, cell)
|
|
||||||
)
|
|
||||||
else:
|
|
||||||
# Calendar with 2 cells / day
|
|
||||||
for d in range(1, nbdays + 1):
|
|
||||||
weeknum = time.strftime(
|
|
||||||
"%U", time.strptime("%d/%d/%d" % (d, month, year), "%d/%m/%Y")
|
|
||||||
)
|
|
||||||
day = DAYNAMES_ABREV[(firstday + d - 1) % 7]
|
|
||||||
if day in weekend:
|
|
||||||
bgcolor = WEEKENDCOLOR
|
|
||||||
weekclass = "wkend"
|
|
||||||
attrs = ""
|
|
||||||
else:
|
|
||||||
bgcolor = WEEKDAYCOLOR
|
|
||||||
weekclass = "wk" + str(monday).replace("/", "_")
|
|
||||||
attrs = trattributes
|
|
||||||
if (
|
|
||||||
weeknum == current_weeknum
|
|
||||||
and current_year == year
|
|
||||||
and weekclass != "wkend"
|
|
||||||
):
|
|
||||||
weeknum += " currentweek"
|
|
||||||
|
|
||||||
if day == "D":
|
cc.append(f"{', '.join(ev_txts)}</td>")
|
||||||
monday = monday.next_day(7)
|
cells = "".join(cc)
|
||||||
T.append(
|
if day == "D":
|
||||||
'<tr bgcolor="%s" class="wk%s" %s><td class="calday">%d%s</td>'
|
monday = monday.next_day(7)
|
||||||
% (bgcolor, weekclass, attrs, d, day)
|
if weeknum == current_weeknum and current_year == year and weekclass != "wkend":
|
||||||
)
|
weekclass += " currentweek"
|
||||||
cc = []
|
rows.append(
|
||||||
for morning in (True, False):
|
f"""<tr bgcolor="{bgcolor}" class="{weekclass}" {attrs}>
|
||||||
color = None
|
<td class="calday">{d}{day}</td>{cells}</tr>"""
|
||||||
legend = ""
|
)
|
||||||
href = ""
|
|
||||||
descr = ""
|
return "\n".join(rows)
|
||||||
for ev in events:
|
|
||||||
ev_year = int(ev[0][:4])
|
|
||||||
ev_month = int(ev[0][5:7])
|
|
||||||
ev_day = int(ev[0][8:10])
|
|
||||||
if ev[4] is not None:
|
|
||||||
ev_half = int(ev[4])
|
|
||||||
else:
|
|
||||||
ev_half = 0
|
|
||||||
if (
|
|
||||||
year == ev_year
|
|
||||||
and month == ev_month
|
|
||||||
and ev_day == d
|
|
||||||
and morning == ev_half
|
|
||||||
):
|
|
||||||
if ev[1]:
|
|
||||||
legend = ev[1]
|
|
||||||
if ev[2]:
|
|
||||||
color = ev[2]
|
|
||||||
if ev[3]:
|
|
||||||
href = ev[3]
|
|
||||||
if len(ev) > 5 and ev[5]:
|
|
||||||
descr = ev[5]
|
|
||||||
#
|
|
||||||
if color is not None:
|
|
||||||
cc.append('<td bgcolor="%s" class="calcell">' % (color))
|
|
||||||
else:
|
|
||||||
cc.append('<td class="calcell">')
|
|
||||||
if href:
|
|
||||||
href = 'href="%s"' % href
|
|
||||||
if descr:
|
|
||||||
descr = 'title="%s"' % html.escape(descr, quote=True)
|
|
||||||
if href or descr:
|
|
||||||
cc.append("<a %s %s>" % (href, descr))
|
|
||||||
if legend or d == 1:
|
|
||||||
n = 3 - len(legend) # pad to 3 cars
|
|
||||||
if n > 0:
|
|
||||||
legend = (
|
|
||||||
" " * (n // 2) + legend + " " * ((n + 1) // 2)
|
|
||||||
)
|
|
||||||
else:
|
|
||||||
legend = " " # empty cell
|
|
||||||
cc.append(legend)
|
|
||||||
if href or descr:
|
|
||||||
cc.append("</a>")
|
|
||||||
cc.append("</td>\n")
|
|
||||||
T.append("".join(cc) + "</tr>")
|
|
||||||
return "\n".join(T)
|
|
||||||
|
|
|
@ -30,17 +30,18 @@
|
||||||
|
|
||||||
(coût théorique en heures équivalent TD)
|
(coût théorique en heures équivalent TD)
|
||||||
"""
|
"""
|
||||||
from flask import request
|
from flask import request, Response
|
||||||
|
|
||||||
from app.models import FormSemestre
|
from app.models import FormSemestre
|
||||||
from app.scodoc.gen_tables import GenTable
|
|
||||||
from app.scodoc import sco_preferences
|
from app.scodoc import sco_preferences
|
||||||
|
from app.scodoc.gen_tables import GenTable
|
||||||
|
from app.scodoc.sco_exceptions import ScoValueError
|
||||||
import app.scodoc.sco_utils as scu
|
import app.scodoc.sco_utils as scu
|
||||||
import sco_version
|
import sco_version
|
||||||
|
|
||||||
|
|
||||||
def formsemestre_table_estim_cost(
|
def formsemestre_table_estim_cost(
|
||||||
formsemestre_id,
|
formsemestre: FormSemestre,
|
||||||
n_group_td=1,
|
n_group_td=1,
|
||||||
n_group_tp=1,
|
n_group_tp=1,
|
||||||
coef_tp=1,
|
coef_tp=1,
|
||||||
|
@ -55,8 +56,6 @@ def formsemestre_table_estim_cost(
|
||||||
peut conduire à une sur-estimation du coût s'il y a des modules optionnels
|
peut conduire à une sur-estimation du coût s'il y a des modules optionnels
|
||||||
(dans ce cas, retoucher le tableau excel exporté).
|
(dans ce cas, retoucher le tableau excel exporté).
|
||||||
"""
|
"""
|
||||||
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
|
||||||
|
|
||||||
rows = []
|
rows = []
|
||||||
for modimpl in formsemestre.modimpls:
|
for modimpl in formsemestre.modimpls:
|
||||||
rows.append(
|
rows.append(
|
||||||
|
@ -76,14 +75,14 @@ def formsemestre_table_estim_cost(
|
||||||
+ coef_cours * row["heures_cours"]
|
+ coef_cours * row["heures_cours"]
|
||||||
+ coef_tp * row["heures_tp"]
|
+ coef_tp * row["heures_tp"]
|
||||||
)
|
)
|
||||||
sum_cours = sum([t["heures_cours"] for t in rows])
|
sum_cours = sum(t["heures_cours"] for t in rows)
|
||||||
sum_td = sum([t["heures_td"] for t in rows])
|
sum_td = sum(t["heures_td"] for t in rows)
|
||||||
sum_tp = sum([t["heures_tp"] for t in rows])
|
sum_tp = sum(t["heures_tp"] for t in rows)
|
||||||
sum_heqtd = sum_td + coef_cours * sum_cours + coef_tp * sum_tp
|
sum_heqtd = sum_td + coef_cours * sum_cours + coef_tp * sum_tp
|
||||||
assert abs(sum([t["HeqTD"] for t in rows]) - sum_heqtd) < 0.01, "%s != %s" % (
|
# assert abs(sum(t["HeqTD"] for t in rows) - sum_heqtd) < 0.01, "%s != %s" % (
|
||||||
sum([t["HeqTD"] for t in rows]),
|
# sum(t["HeqTD"] for t in rows),
|
||||||
sum_heqtd,
|
# sum_heqtd,
|
||||||
)
|
# )
|
||||||
|
|
||||||
rows.append(
|
rows.append(
|
||||||
{
|
{
|
||||||
|
@ -117,7 +116,7 @@ def formsemestre_table_estim_cost(
|
||||||
),
|
),
|
||||||
rows=rows,
|
rows=rows,
|
||||||
html_sortable=True,
|
html_sortable=True,
|
||||||
preferences=sco_preferences.SemPreferences(formsemestre_id),
|
preferences=sco_preferences.SemPreferences(formsemestre.id),
|
||||||
html_class="table_leftalign table_listegroupe",
|
html_class="table_leftalign table_listegroupe",
|
||||||
xls_before_table=[
|
xls_before_table=[
|
||||||
[formsemestre.titre_annee()],
|
[formsemestre.titre_annee()],
|
||||||
|
@ -142,51 +141,50 @@ def formsemestre_table_estim_cost(
|
||||||
""",
|
""",
|
||||||
origin=f"""Généré par {sco_version.SCONAME} le {scu.timedate_human_repr()}""",
|
origin=f"""Généré par {sco_version.SCONAME} le {scu.timedate_human_repr()}""",
|
||||||
filename=f"EstimCout-S{formsemestre.semestre_id}",
|
filename=f"EstimCout-S{formsemestre.semestre_id}",
|
||||||
|
table_id="formsemestre_table_estim_cost",
|
||||||
)
|
)
|
||||||
return tab
|
return tab
|
||||||
|
|
||||||
|
|
||||||
|
# view
|
||||||
def formsemestre_estim_cost(
|
def formsemestre_estim_cost(
|
||||||
formsemestre_id,
|
formsemestre_id: int,
|
||||||
n_group_td=1,
|
n_group_td: int | str = 1,
|
||||||
n_group_tp=1,
|
n_group_tp: int | str = 1,
|
||||||
coef_tp=1,
|
coef_tp: float | str = 1.0,
|
||||||
coef_cours=1.5,
|
coef_cours: float | str = 1.5,
|
||||||
fmt="html",
|
fmt="html",
|
||||||
):
|
) -> str | Response:
|
||||||
"""Page (formulaire) estimation coûts"""
|
"""Page (formulaire) estimation coûts"""
|
||||||
|
try:
|
||||||
|
n_group_td = int(n_group_td)
|
||||||
|
n_group_tp = int(n_group_tp)
|
||||||
|
coef_tp = float(coef_tp)
|
||||||
|
coef_cours = float(coef_cours)
|
||||||
|
except ValueError as exc:
|
||||||
|
raise ScoValueError("paramètre invalide: utiliser des nombres") from exc
|
||||||
|
|
||||||
n_group_td = int(n_group_td)
|
formsemestre = FormSemestre.get_formsemestre(formsemestre_id)
|
||||||
n_group_tp = int(n_group_tp)
|
|
||||||
coef_tp = float(coef_tp)
|
|
||||||
coef_cours = float(coef_cours)
|
|
||||||
|
|
||||||
tab = formsemestre_table_estim_cost(
|
tab = formsemestre_table_estim_cost(
|
||||||
formsemestre_id,
|
formsemestre,
|
||||||
n_group_td=n_group_td,
|
n_group_td=n_group_td,
|
||||||
n_group_tp=n_group_tp,
|
n_group_tp=n_group_tp,
|
||||||
coef_tp=coef_tp,
|
coef_tp=coef_tp,
|
||||||
coef_cours=coef_cours,
|
coef_cours=coef_cours,
|
||||||
)
|
)
|
||||||
h = """
|
tab.html_before_table = f"""
|
||||||
<form name="f" method="get" action="%s">
|
<form name="f" method="get" action="{request.base_url}">
|
||||||
<input type="hidden" name="formsemestre_id" value="%s"></input>
|
<input type="hidden" name="formsemestre_id" value="{formsemestre.id}"></input>
|
||||||
Nombre de groupes de TD: <input type="text" name="n_group_td" value="%s" onchange="document.f.submit()"/><br>
|
Nombre de groupes de TD: <input type="text" name="n_group_td" value="{n_group_td}" onchange="document.f.submit()"/><br>
|
||||||
Nombre de groupes de TP: <input type="text" name="n_group_tp" value="%s" onchange="document.f.submit()"/>
|
Nombre de groupes de TP: <input type="text" name="n_group_tp" value="{n_group_tp}" onchange="document.f.submit()"/>
|
||||||
Coefficient heures TP: <input type="text" name="coef_tp" value="%s" onchange="document.f.submit()"/>
|
Coefficient heures TP: <input type="text" name="coef_tp" value="{coef_tp}" onchange="document.f.submit()"/>
|
||||||
<br>
|
<br>
|
||||||
</form>
|
</form>
|
||||||
""" % (
|
"""
|
||||||
request.base_url,
|
|
||||||
formsemestre_id,
|
|
||||||
n_group_td,
|
|
||||||
n_group_tp,
|
|
||||||
coef_tp,
|
|
||||||
)
|
|
||||||
tab.html_before_table = h
|
|
||||||
tab.base_url = "%s?formsemestre_id=%s&n_group_td=%s&n_group_tp=%s&coef_tp=%s" % (
|
tab.base_url = "%s?formsemestre_id=%s&n_group_td=%s&n_group_tp=%s&coef_tp=%s" % (
|
||||||
request.base_url,
|
request.base_url,
|
||||||
formsemestre_id,
|
formsemestre.id,
|
||||||
n_group_td,
|
n_group_td,
|
||||||
n_group_tp,
|
n_group_tp,
|
||||||
coef_tp,
|
coef_tp,
|
||||||
|
|
|
@ -350,11 +350,13 @@ class SituationEtudCursusClassic(SituationEtudCursus):
|
||||||
l'étudiant (quelle que soit la formation), le plus ancien en tête"""
|
l'étudiant (quelle que soit la formation), le plus ancien en tête"""
|
||||||
return self.sems
|
return self.sems
|
||||||
|
|
||||||
def get_cursus_descr(self, filter_futur=False):
|
def get_cursus_descr(self, filter_futur=False, filter_formation_code=False):
|
||||||
"""Description brève du parcours: "S1, S2, ..."
|
"""Description brève du parcours: "S1, S2, ..."
|
||||||
Si filter_futur, ne mentionne pas les semestres qui sont après le semestre courant.
|
Si filter_futur, ne mentionne pas les semestres qui sont après le semestre courant.
|
||||||
|
Si filter_formation_code, restreint aux semestres de même code formation que le courant.
|
||||||
"""
|
"""
|
||||||
cur_begin_date = self.sem["dateord"]
|
cur_begin_date = self.sem["dateord"]
|
||||||
|
cur_formation_code = self.sem["formation_code"]
|
||||||
p = []
|
p = []
|
||||||
for s in self.sems:
|
for s in self.sems:
|
||||||
if s["ins"]["etat"] == scu.DEMISSION:
|
if s["ins"]["etat"] == scu.DEMISSION:
|
||||||
|
@ -363,12 +365,14 @@ class SituationEtudCursusClassic(SituationEtudCursus):
|
||||||
dem = ""
|
dem = ""
|
||||||
if filter_futur and s["dateord"] > cur_begin_date:
|
if filter_futur and s["dateord"] > cur_begin_date:
|
||||||
continue # skip semestres demarrant apres le courant
|
continue # skip semestres demarrant apres le courant
|
||||||
SA = self.parcours.SESSION_ABBRV # 'S' ou 'A'
|
if filter_formation_code and s["formation_code"] != cur_formation_code:
|
||||||
|
continue # restreint aux semestres de la formation courante (pour les PV)
|
||||||
|
session_abbrv = self.parcours.SESSION_ABBRV # 'S' ou 'A'
|
||||||
if s["semestre_id"] < 0:
|
if s["semestre_id"] < 0:
|
||||||
SA = "A" # force, cas des DUT annuels par exemple
|
session_abbrv = "A" # force, cas des DUT annuels par exemple
|
||||||
p.append("%s%d%s" % (SA, -s["semestre_id"], dem))
|
p.append("%s%d%s" % (session_abbrv, -s["semestre_id"], dem))
|
||||||
else:
|
else:
|
||||||
p.append("%s%d%s" % (SA, s["semestre_id"], dem))
|
p.append("%s%d%s" % (session_abbrv, s["semestre_id"], dem))
|
||||||
return ", ".join(p)
|
return ", ".join(p)
|
||||||
|
|
||||||
def get_parcours_decisions(self):
|
def get_parcours_decisions(self):
|
||||||
|
|
Some files were not shown because too many files have changed in this diff Show More
Loading…
Reference in New Issue
Block a user