top of page
Фото автораРоман Радейко

Що юристу НЕ потрібно робити при використанні ChatGPT

До адвокатки Дже Лі з Нью-Йорка можуть застосувати дисциплінарні заходи за цитування неіснуючої судової справи, створеної штучним інтелектом. Це що стало черговим випадком неправильного застосування ШІ у роботу юристів, які намагаються орієнтуватися в новітніх технологіях.



Апеляційний суд 2-го округу США 30 січня 2024 року поскаржився на адвоката Дже Лі після того, як вона використала ChatGPT від OpenAI для дослідження у справі про медичну помилку і не підтвердила дійсність згаданої нею справи .


Поведінка "значно не відповідає базовим обов'язкам адвоката", - написала колегія суддів апеляційного суду, розташованого в Мангеттені. Лі, адвокат зазначила в електронному листі, що направлення її справи на дисциплінарне розслідування стало для неї несподіванкою, і вона "зобов'язана дотримуватися найвищих професійних стандартів та ставитися до цієї справи з належним чином».


Вона подала до суду неіснуюче рішення у справі за позовом свого клієнта, який стверджував, що лікар з Квінсу невдало провів аборт. Суд у листопаді наказав адвокату надати копію згаданого рішення після того, як йому не вдалося знайти справу. Вона відповіла, що "не може надати копію рішення". Адвокат визнала, що дане рішення, "запропонував» ChatGPT, але сказала, що "не було злого умислу, свавілля або упередженості проти протилежної сторони або судової системи".


Це рішення є одиним із прикладів, коли адвокат ненавмисно включає неправдиві цитати судових справ, згенеровані штучним інтелектом. Програми генеративного ШІ були визнані здатними "галюцинувати" інформацію, що означає, що вони можуть виробляти текст, який є переконливим, але некоректним.


Це не перший такий випадок і мабуть не останній. Адвокат Майкла Коена, колишнього помічника та адвоката Дональда Трампа, намагається уникнути санкцій за подібні дії. У іншій судовій справі, двох адвокатів з Нью-Йорка було оштрафовано минулого червня за подання документа з шістьма вигаданими цитатами. Адвоката з Колорадо тимчасово зупинено від практики права у листопаді в іншій подібній справі.


Цікаво а чи вже є подібні кейси в Україні?


Щоб юристам в Україні уникати подібної практики, рекомендую використовувати наступні поради. Так, їх сформував не я, а Chat GPT на мій запит.


Ось три практичні рекомендацій як НЕ потрібно робити при використанні ChatGPT або будь-якого іншого AI для юридичної практики:


  • не покладайтесь виключно на AI: Не використовуйте AI як єдине джерело для ідентифікації або аналізу судових рішень. AI може помилково інтерпретувати юридичні факти або навіть створити фіктивні справи.

  • не ігноруйте перевірку джерел: Перш ніж включати будь-яку інформацію, отриману від AI, в юридичні документи, необхідно перевірити її достовірність через надійні джерела, наприклад у реєстрах судових рішень.

  • не замінюйте юридичний аналіз AI висновками: AI не може повністю замінити глибинний аналіз та інтерпретацію юридичних норм і прецедентів, які вимагають людського розуміння та досвіду.

13 переглядів0 коментарів

Останні пости

Дивитися всі

Comentários


bottom of page