#5 , 13 jun 2025 11:41
Hierbij een bijlage uit mijn boek "Beweren is niet bewijzen"
Bijlage 6 – Toekomstige bewijsvormen en artificiële ondersteuning in juridische besluitvorming
1. Inleiding – Nieuwe vormen van bewijs
Deze verhandeling vertrekt van de stelling "Beweren is niet bewijzen" en onderzoekt hoe logische structuren bijdragen tot een verantwoorde bewijsvoering. Binnen dat kader rijst de vraag of taalmodellen zoals ChatGPT een rol kunnen spelen in het ondersteunen van toekomstige juridische bewijsvormen. Niet als vervanging van menselijke oordeelsvorming, maar als methodologisch hulpmiddel binnen een strikt afgebakend domein.
2. Digitale ondersteuning: het juridisch laboratorium
In een experimentele context werd onderzocht of een taalmodel, gevoed met relevante wetgeving, rechtspraak, doctrine en logica, zelfstandig voorlopige juridische besluiten kan genereren op basis van hypothetische of gestandaardiseerde dagvaardingen. Deze werkwijze vereist een zorgvuldig opgebouwd kennisraamwerk, waarin de AI fungeert als analytisch instrument. Het doel is niet het automatiseren van rechtsvinding, maar het verkennen van structurele coherentie in juridische redeneringen.
3. Methodologie – Structurering van het bewijs
De opbouw van de juridische analyse steunt op:
- Natural deductie, om redeneringen formeel op te bouwen.
- Reverse engineering, waarbij vanuit een beoogd besluit wordt teruggewerkt naar valide premissen.
- Niet-monotone logica, als model voor situaties waarin bijkomende informatie eerdere conclusies wijzigt.
- Juridische geloofwaardigheid, als toetssteen voor plausibiliteit naast formele geldigheid.
De AI is hierbij geen beslisser, maar een synthetische denkmachine die, mits de juiste input, relevante tussenstappen kan formuleren.
4. Juridische implicaties en grenzen
Hoewel het denkbaar is dat dergelijke methodes in de toekomst deel gaan uitmaken van het juridische beslissingsproces, blijven de implicaties voorlopig beperkt tot de academische en experimentele sfeer. De menselijke jurist blijft cruciaal als inhoudelijke beoordelaar van premissen en redeneringsstappen, garant van contextuele interpretatie, en hoeder van rechtsethiek, billijkheid en geloofwaardigheid. De AI levert gestructureerde hypotheses, geen bindende conclusies.
5. Reflectie – Tussen hulpmiddel en co-creatie
De vraag is niet of AI de jurist vervangt, maar hoe digitale modellen kunnen bijdragen tot betere bewijsvoering, transparantie en controleerbaarheid. In die zin verschuift de focus van automatisering naar co-creatie: een samenwerking tussen menselijke expertise en digitale consistentie. Precedenten vinden we ook in andere domeinen, zoals forensische analyse of financieel toezicht, waar digitale ondersteuning al ingeburgerd is.
6. Slot – Naar een constructieve integratie
Deze bijlage pleit niet voor disruptie van de juridische praktijk, maar voor een voorzichtige integratie van digitale denkinstrumenten, mits ethisch, juridisch en methodologisch omkaderd. Niet elk bewijs is geschikt voor automatisering, maar sommige tussenstappen in het bewijsproces kunnen baat hebben bij synthetische ondersteuning.
Quod erat demonstrandum – mits menselijke tussenkomst.
Bibliografie
Gentzen, G. (1934). Untersuchungen über das logische Schließen. Mathematische Zeitschrift, 39(1), 176–210.
Hage, J. (1996). A Theory of Legal Reasoning and a Logic to Match. Artificial Intelligence and Law, 4(3–4), 199–273.
Susskind, R. (2017). Tomorrow’s Lawyers: An Introduction to Your Future. Oxford University Press.
Surden, H. (2014). Machine Learning and Law. Washington Law Review, 89(1), 87–115.
Calo, R. (2015). Robotics and the Lessons of Cyberlaw. California Law Review, 103(3), 513–563.