Максим Дворовий: Трамп, Twitter і ко та бани акаунтів в соцмережах // Trump, Twitter and co and bans of social media accounts (UA/EN below)

Ситуація з баном Трампа в усіх основних соціальних мережах показала ту частину регулювання в Інтернеті, про яку все ще говорять нечасто, а саме грань регулювання між платформами-посередниками та користувачами (на відміну від класичних граней "держава - користувач" та "держава - платформа-посередник"). Тож поговоримо трішки і про неї.
Справді, ми всі ставимо галочку перед Terms and Conditions, майже ніколи не читаючи їх. Саме вони передбачають низку обмежень щодо типів шкідливого контенту, який ми не маємо розповсюджувати у соціальній мережі. Зазвичай серед таких обмежень - мова ворожнечі, поширення порнографії та порнопомсти, заклики до насильства та дискримінації тощо. Так само зазвичай платформи не реагують на відповідний контент без звернень користувачів, які вважають, що контент порушує якісь права (більшість з нас колись натискало на "report"): якщо вони реагуватимуть на нього, то втратять статус пасивних посередників та власний імунітет відповідно до DMCA, директиви ЄС про електронну комерцію та інших подібних актів.
Проблемних запитань тут декілька:
1) що вважати належним повідомленням про протиправність контенту;
2) як швидко має видалятися контент чи обмежуватися доступ до нього;
3) має бути обмежений доступ до самого контенту - чи також і до акаунту, що його поширює;
4) за якими стандартами має приватна компанія-платформа оцінювати той чи інший контент.
Перші два питання переважно вирішені в юриспруденції, в тому числі у практиці ЄСПЛ та судів ЄС, де належним повідомленням справді може вважатися те саме натискання нами на кнопку "report", а швидкість видалення контенту залежить від категорії такого контенту (для закликів до тероризму - до кількох годин, для контенту, що є менш загрозливим - до 48 годин, а то й тижня). Третє питання - питання пропорційності, яке є значно важчим, і домінантною серед правозахисних кіл все ж є позиція, що обмеження доступу до акаунту є крайнім заходом, який можна вжити лише у разі, якщо обмеження доступу до контенту є неефективним. Останнє питання - найважче, оскільки важко навчити всіх модераторів соціальних мереж навіть базовим стандартам щодо статті 19 МПГПП, статті 10 ЄКПЛ чи Першої поправки у США, а рішення в окремих випадках має прийматися надзвичайно швидко.
Тепер до Трампа. Твіттер у своєму поясненні бану вказав, що твіт Трампа про те, що він не відвідуватиме інавгурації, був сприйнятий низкою його прихильників як заклик до невизнання легітимності виборів, а також потенційно міг спричинити насильство на інавгурації, яке б не зачепило Трампа. Тому Твіттер дійшов висновку, що "два Твіти мають здатність підбурити інших до відтворення актів насильства, що відбулися 6 січня 2021 року". Ця заява - явне покликання на стандарт "imminent lawless action" з відомого Brandenburg v Ohio. Подібні стандарти оцінки мови ворожнечі є і в Рабатському плані дій ООН, і в практиці ЄСПЛ (зокрема у Perincek v Switzerland та подальшій практиці суду). Втім, за цими документами оцінюється і низка інших компонентів, зокрема зміст висловлювань, статус промовця, контекст, у якому вони були висловлені тощо.
Здавалося б, начебто Твіттер дотримався міжнародних стандартів прав людини у своєму рішенні. Ба більше, я переконаний, що знайдуться і ті, хто натискав кнопку "report", що дозволить Твіттеру скористатися захистом за DMCA. Але залишається ще одне ключове питання: наскільки соцмережі мають оцінювати контент самостійно і яка тут роль суду та держави? І взагалі, наскільки вільними є соціальні мережі у тому, аби банити користувачів за подібні (і справді досить неоднозначні за текстом) пости?
Відповіді на це поки що немає. Є Керівні принципи ООН щодо бізнесу та прав людини, за якими компанії закликають дотримуватися МПГПП у своїй діяльності, але вони є документом м'якого права, а отже необов'язковими. Спеціальні доповідачі з свободи вираження поглядів також наголошували на співрегулюванні у оцінці контенту, але не деталізували, яким саме воно має бути. А проблема overcencorship (і навпаки) зі сторони соцмереж залишається актуальною вже довгий час, згадаймо хоча б бани українських користувачів в Фб за карикатури.
Тому постає питання і про те, чи не прийшов час державам брати на себе позитивний обов'язок з забезпечення дотримання соцмережами прав людини у власній діяльності, а також про те, яким має бути обсяг цього позитивного обов'язку (і як далеко взагалі держави можуть заходити з таким регулюванням у ситуаціях, коли свобода вираження поглядів обмежується платформами шляхом бану користувача). Для американського права - це ще і питання того, чи поширять суди дію Першої поправки на приватних гравців.
Тому чекаємо на потенційний позов Трампа до техкомпаній. Ця справа може і має стати гучною, а також закладе суттєві підвалини для подальшого врегулювання трикутнику "держава - платформа-посередник - користувач" в Інтернеті. І ще й вплине на Digital Services Act, який тільки почали обговорювати в ЄС.
-------------------------------
The ban of Donald Trump in all the key social media has highlighted the not-so highlighted area of Internet regulation which concerns the "state - intermediary platform" side of the "state - user - intermediary platform" regulatory triangle. Let's talk about it for a while.
Almost all of us tick "I agree" somewhere near the Terms and Conditions of this or that platform without reading the very same terms and conditions. They establish a number of restrictions on harmful content prohibited for dissemination on the platform. Such restrictions usually prohibit hate speech, porn (including revenge porn), incitements to violence and discrimination, etc. The platforms usually abstain from reacting to such type of content proactively - they only act upon receiving a notification by the users, including through the use of the "Report" button. If they do something proactively, they will lose their status of passive intermediaries and will also lose their immunity under DMCA, EU E-Commerce Directive, and other similar acts.
A couple of issues arise:
1) which notification on the illegality of the content may be sufficient;
2) how expeditiously the content shall be removed or blocked;
3) whether merely the content shall be blocked or restricted or the account of the disseminator as well;
4) which standards the platform shall use to evaluate the content.
First two issues were resolved in case-law, in particular by the ECtHR and the CJEU, where the use of the "Report" button is recognized as a sufficient notification, while the criterion of expeditiousness depends on the type of the removed content (from a couple of hours regarding terrorist content up to 48 hours or even a week for less harmful content). The third issue concerns proportionality and is a much more complicated one. Human rights advocates predominantly argue that blocking the account or restricting access to it shall be the measure of last resort, which can only be applied when blocking access to certain content has proved to be ineffective. The last issue, however, is the most complicated one since it is difficult to teach all the moderators on the platforms the basic standards of application of Article 19 of the ICCPR, Article 10 of the ECHR, or the First Amendment. It is also difficult to teach them to apply those standards since the decision on blocking or removal of content shall sometimes be adopted in a couple of seconds.
Let's go back to Trump. Twitter justified permanent suspension of Trump from the platform by the fact that "President Trump’s statement that he will not be attending the Inauguration is being received by a number of his supporters as further confirmation that the election was not legitimate", as well as considered that his "second Tweet may also serve as encouragement to those potentially considering violent acts that the Inauguration would be a “safe” target, as he will not be attending." Twitter concluded that "the two Tweets above are likely to inspire others to replicate the violent acts that took place on January 6, 2021". The latter statement is a clear-cut reference to the famous "imminent lawless action" test from Brandenburg v Ohio. Similar standards of assessment of speech may be found in the UN Rabat Plan of Action and in the case-law of the ECtHR (inter alia, in Perincek v Switzerland and the following line of cases). However, these sources also call upon assessing the content and context of the speech, the status of the speaker, etc.
Prima facie, it looks like Twitter has applied the international human rights standards correctly. There will surely be users who reported Trump's Tweets, which enable Twitter's defense under the DMCA. One key question remains, however: how far can the social media go in their assessment of the user-generated content, and what is the role of the state and the courts in such an assessment? In general, how free are the social media to suspend their users for similar ambiguous posts?
There is no clear answer to this question. There are the UN Guiding Principles on Business and Human Rights, which call on private enterprises to apply the ICCPR in their daily activities. These Principles, however, belong to the body of soft law and are thus non-binding. Special Rapporteurs on Freedom of Expression also stressed the need for co-regulation in content assessment, but have never provided any details. At the same time, the problem of overcensorship (and lack of moderation) by the platform is an old one. For instance, let's recall the bans of Ukrainian cartoonists.
This case poses an interesting question on whether the states shall take any positive obligation in relation to the regulation of social media adherence to human rights standards in their daily activities. This also allows us (and the states) to think how far can the states go with such regulation when the freedom of expression of the user is limited by the platforms through the account suspension. For US law, it is also a question whether the First Amendment will ever be extended to cover the activities of private actors.
So, let's wait for a probable suit from Trump to platforms. This case may and shall become a landmark one, as well as it shall lay a foundation to further regulation of the "state - user - intermediary platform" regulatory triangle. It may also influence the Digital Services Act, which is now being considered in the EU.

Оригінал публікації за посиланням.

Читайте також
0 коментарiв
Для того, щоб залишати коментарi, необхiдно увiйти в профiль