Telegram Group & Telegram Channel
🌏 "Международная панорама"

Этот материал подготовил дежурный нашего Клуба Виктор Балкин.

***
Новый заметный случай «осечки» в использовании искусственного интеллекта (ИИ) в зарубежной судебной практике.

Около года назад мы писали о случае, когда американский адвокат, воспользовавшись услугами ИИ, составил позицию по делу, но не проверил подлинность приведенных ИИ прецедентов и подал документ в суд. После чего факт «вымышленности» прецедентов вскрылся (это заметили оппоненты) и разгорелся скандал.

Теперь про аналогичный случай в Австралии пишет «The Guardian».

Адвокат, имя которого не называется, предоставил в суд письменную позицию, составленную с помощью популярного в Австралии сервиса и софта Leap - специализированного правового помощника, использующего ИИ.

После получения позиции суд удалился в совещательную комнату и обнаружил, что ни один из кейсов, приведенных адвокатом, не обнаруживается.

Вернувшись из совещательной комнаты, суд запросил у адвоката пояснения и тот чистосердечно признался, что не проверил действительность представленной ИИ практики, раскаялся и немедленно принес глубочайшие извинения суду и оппонентам, оплатил работу представителей оппонента, которые из-за его ошибки, приведшей к отложению слушания, пришли в суд впустую.

Суд извинения адвоката принял, однако, не раскрывая имен участников инцидента (видимо, дабы не вредить репутации невинных жертв ИИ), все же передал дело на рассмотрение органа, контролирующего работу судебных юристов штата — поскольку в отношении  семейных споров регламента применения ИИ в регионе принято ещё не было, и суд счел прецедент достойным разбирательства в силу его общественной значимости.

В итоге к разбирательству присоединились и разработчики инструментария с ИИ, рассказав, что, когда позиции подготавливает их ИИ, затем они проверяются живыми сотрудниками компании на предмет «фейков», но через некоторое время.
И, по-видимому, адвокат либо не успел, либо не увидел предупреждений о том, что верификция документом ещё не пройдена.

В итоге получилось, что виноват был невнимательный адвокат, доверивший свою работу машине, только кажущейся умной.

В заключении, по существу этого и прошлых кейсов можно подвести итог, что, как всегда, - «доверяй, но проверяй» - лучший из советов, которые можно дать любому пользователю ИИ, в том числе юридического.

Интересно, что все чаще к фейковым кейсам, продуцируемым ИИ, применяют термин  “bogus opinions”, т. е. «фальшивые позиции». Bogus как слово в данном случае и означает фальшивку, но интересна история термина — его стали в этом значении применять фальшивомонетчики в США для процесса копирования монет. А потом взяли на вооружение уже настоящие деньгопечатники. А до фальшивомонетчиков, Bogus - это хорошо знакомый нам «бука», которым детей пугают, но с Шотландской пропиской.
Так что помните уважаемые читатели, ИИ — это все же Бука, нечисть, доверять словам которой никак нельзя.



group-telegram.com/advokat77519/3757
Create:
Last Update:

🌏 "Международная панорама"

Этот материал подготовил дежурный нашего Клуба Виктор Балкин.

***
Новый заметный случай «осечки» в использовании искусственного интеллекта (ИИ) в зарубежной судебной практике.

Около года назад мы писали о случае, когда американский адвокат, воспользовавшись услугами ИИ, составил позицию по делу, но не проверил подлинность приведенных ИИ прецедентов и подал документ в суд. После чего факт «вымышленности» прецедентов вскрылся (это заметили оппоненты) и разгорелся скандал.

Теперь про аналогичный случай в Австралии пишет «The Guardian».

Адвокат, имя которого не называется, предоставил в суд письменную позицию, составленную с помощью популярного в Австралии сервиса и софта Leap - специализированного правового помощника, использующего ИИ.

После получения позиции суд удалился в совещательную комнату и обнаружил, что ни один из кейсов, приведенных адвокатом, не обнаруживается.

Вернувшись из совещательной комнаты, суд запросил у адвоката пояснения и тот чистосердечно признался, что не проверил действительность представленной ИИ практики, раскаялся и немедленно принес глубочайшие извинения суду и оппонентам, оплатил работу представителей оппонента, которые из-за его ошибки, приведшей к отложению слушания, пришли в суд впустую.

Суд извинения адвоката принял, однако, не раскрывая имен участников инцидента (видимо, дабы не вредить репутации невинных жертв ИИ), все же передал дело на рассмотрение органа, контролирующего работу судебных юристов штата — поскольку в отношении  семейных споров регламента применения ИИ в регионе принято ещё не было, и суд счел прецедент достойным разбирательства в силу его общественной значимости.

В итоге к разбирательству присоединились и разработчики инструментария с ИИ, рассказав, что, когда позиции подготавливает их ИИ, затем они проверяются живыми сотрудниками компании на предмет «фейков», но через некоторое время.
И, по-видимому, адвокат либо не успел, либо не увидел предупреждений о том, что верификция документом ещё не пройдена.

В итоге получилось, что виноват был невнимательный адвокат, доверивший свою работу машине, только кажущейся умной.

В заключении, по существу этого и прошлых кейсов можно подвести итог, что, как всегда, - «доверяй, но проверяй» - лучший из советов, которые можно дать любому пользователю ИИ, в том числе юридического.

Интересно, что все чаще к фейковым кейсам, продуцируемым ИИ, применяют термин  “bogus opinions”, т. е. «фальшивые позиции». Bogus как слово в данном случае и означает фальшивку, но интересна история термина — его стали в этом значении применять фальшивомонетчики в США для процесса копирования монет. А потом взяли на вооружение уже настоящие деньгопечатники. А до фальшивомонетчиков, Bogus - это хорошо знакомый нам «бука», которым детей пугают, но с Шотландской пропиской.
Так что помните уважаемые читатели, ИИ — это все же Бука, нечисть, доверять словам которой никак нельзя.

BY Младший прапорщик юстиции




Share with your friend now:
group-telegram.com/advokat77519/3757

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Just days after Russia invaded Ukraine, Durov wrote that Telegram was "increasingly becoming a source of unverified information," and he worried about the app being used to "incite ethnic hatred." The Russian invasion of Ukraine has been a driving force in markets for the past few weeks. But the Ukraine Crisis Media Center's Tsekhanovska points out that communications are often down in zones most affected by the war, making this sort of cross-referencing a luxury many cannot afford. That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future. Oh no. There’s a certain degree of myth-making around what exactly went on, so take everything that follows lightly. Telegram was originally launched as a side project by the Durov brothers, with Nikolai handling the coding and Pavel as CEO, while both were at VK.
from nl


Telegram Младший прапорщик юстиции
FROM American