Grammarly 'Curi' Identitas Tokoh Asli Demi Fitur AI
AI & ML

Grammarly 'Curi' Identitas Tokoh Asli Demi Fitur AI

7 Maret 2026 | 6 Menit Baca | Nabila Maharani

Fitur Expert Review Grammarly memakai nama tokoh nyata, bahkan yang sudah meninggal, tanpa izin. Digital necromancy atau inovasi?

Bayangkan kalian baru saja push code ke repository, lalu tiba-tiba muncul notifikasi review. Pengirimnya? Linus Torvalds. Jantung langsung copot, keringat dingin keluar. Tapi pas dibaca, sarannya malah sopan banget, penuh emoji, dan membahas indentation dengan lembut—sama sekali bukan gaya Linus yang asli.

Bingung? Itu rasanya melihat apa yang baru saja dilakukan Grammarly (yang sekarang bernaung di bawah bendera Superhuman).

Aplikasi yang selama ini jadi penyelamat skripsi dan email kerja kita baru saja tersandung masalah etika serius. Fitur terbaru mereka, “Expert Review”, ketahuan menggunakan identitas orang sungguhan—mulai dari profesor sejarah yang sudah meninggal hingga jurnalis teknologi ternama—untuk memberikan saran penulisan AI. Tanpa izin. Tanpa royalti.

Bagi yang paham betapa sakralnya etika open-source dan lisensi, kasus ini pasti bikin geleng-geleng kepala. Inilah alasan kenapa “roleplay” AI ini bisa jadi mimpi buruk legal.

”Digital Necromancy”: Membangkitkan Ahli yang Sudah Tiada

Isu ini meledak awal pekan ini (Maret 2026) ketika ditemukan bahwa fitur AI Grammarly menawarkan saran penulisan seolah-olah berasal dari David Abulafia, seorang sejarawan terkemuka. Masalahnya satu: David Abulafia sudah meninggal dunia pada Januari 2026.

Ini bukan sekadar bug algoritma. Ini yang disebut kritikus sebagai “Digital Necromancy”.

Secara teknis, AI ini melakukan persona prompting. Sistem LLM (Large Language Model) diinstruksikan untuk meniru gaya bahasa, preferensi kosa kata, dan struktur kalimat seseorang berdasarkan data tulisan mereka yang ada di internet (yang kemungkinan besar di-scrape tanpa izin juga).

Logo Grammarly
Source: Wikimedia Commons
Grammarly kini berada di bawah payung perusahaan Superhuman setelah rebranding besar-besaran.

Bukan cuma akademisi yang sudah berpulang, tokoh publik yang masih hidup seperti Stephen King dan Neil deGrasse Tyson juga dijadikan “maskot” saran penulisan. Bahkan, seorang editor kepala dari media teknologi besar kaget setengah mati saat menemukan namanya sendiri ada di dalam menu opsi “Expert Review”.

Respons editor tersebut sangat menohok: dia lebih tersinggung karena saran AI yang mengatasnamakan dirinya itu jelek (“shitbox edit”), daripada fakta identitasnya dicuri. Bayangkan reputasi profesional yang dibangun puluhan tahun, diduplikasi jadi bot AI yang kualitas sarannya pas-pasan.

Di Balik Layar: Rebranding Superhuman

Kenapa Grammarly melakukan langkah senekat ini? Jawabannya mungkin ada pada tekanan pasar.

Pada Oktober 2025, Grammarly melakukan rebranding besar-besaran menjadi Superhuman setelah mengakuisisi aplikasi email dengan nama sama dan workspace tool Coda. Tujuannya jelas: ingin jadi super app produktivitas, bukan cuma spell checker.

Evolusi Menuju Kontroversi

+2 bln

Peluncuran AI Agent

Grammarly memperkenalkan fitur agen khusus, cikal bakal Expert Review.

+5 bln

Rebranding Superhuman

Induk perusahaan berubah nama demi ekspansi pasar.

Skandal Identitas

Laporan investigasi mengungkap penggunaan nama tokoh tanpa izin.

Di dunia software engineering, kita sering bilang “ship fast, break things.” Tapi kalau yang di-break adalah hak legal atas nama seseorang (Right of Publicity), itu bukan inovasi, itu cari masalah.

Pihak Superhuman (Grammarly) berdalih bahwa fitur ini hanya memberikan saran yang “terinspirasi” oleh karya para ahli tersebut dan ada disclaimer kecil kalau para ahli ini tidak berafiliasi langsung. Tapi di mata hukum—terutama hukum California yang ketat soal komersialisasi identitas—argumen ini sangat lemah. Tim hukum Stephen King bahkan dikabarkan sedang menyelidiki kasus ini.

Bedah Teknis: Bagaimana AI “Mencuri” Gaya?

Bagi teman-teman developer yang penasaran, fitur ini kemungkinan besar tidak melatih model khusus (fine-tuning) untuk setiap tokoh, karena itu mahal dan berat di komputasi.

Kemungkinan besar mereka menggunakan teknik RAG (Retrieval-Augmented Generation) ditambah dengan System Prompting yang kuat. Kira-kira logika backend-nya seperti ini (disederhanakan):

# Pseudo-code ilustrasi logika 'Persona Prompting'
system_prompt = """
You are an expert editor simulating the style of {EXPERT_NAME}.
Analyze the user's text based on {EXPERT_NAME}'s known works:
1. Use their typical vocabulary density.
2. Mimic their sentence structure preference (short vs complex).
3. Apply their specific critiques on passive voice.
"""

user_text = "Kalimat yang mau diedit user..."
response = llm.generate(system_prompt + user_text)

Masalahnya, variabel {EXPERT_NAME} di situ diisi dengan nama orang sungguhan yang punya hak hukum atas “brand” personal mereka.

Skala Ekosistem Superhuman

Pengguna Mingguan 40 Juta+
Up
Basis user masif yang terpapar fitur ini
Valuasi Perusahaan $13 Miliar
💰
Bukan startup kecil yang bisa beralasan 'khilaf'

Relevansinya Buat Kita di Indonesia

Mungkin kalian mikir, “Ah, itu kan di Amerika. Apa urusannya sama kita?”

Eits, jangan salah. Indonesia adalah salah satu pasar pengguna writing assistant yang besar, terutama di kalangan mahasiswa dan profesional yang bekerja dengan bahasa Inggris. Kita terbiasa percaya pada saran Grammarly “telan mentah-mentah”.

Bayangkan kalau tren ini masuk ke ranah lokal tanpa regulasi yang jelas. Bisa saja nanti ada fitur AI belajar bahasa Indonesia yang menawarkan mode “Chairil Anwar” untuk puisi atau “Sutardji Calzoum Bachri” tanpa sepeser pun royalti mengalir ke ahli waris mereka. Atau bayangkan startup lokal bikin fitur “Nasihat Bisnis a la Nadiem Makarim” tanpa izin beliau.

Di Indonesia, Undang-Undang Perlindungan Data Pribadi (UU PDP) memang sudah ada, tapi ranah Right of Publicity atau hak atas komersialisasi gaya personal masih sangat abu-abu jika dibandingkan dengan AS.

Pelajaran Buat Developer

Jangan pernah membangun fitur yang memonetisasi identitas orang lain tanpa consent tertulis. Di era AI, data publik (seperti artikel atau buku) sering dianggap “bebas dipakai”, tapi identitas personal tetaplah properti pribadi.

Masa Depan Identitas di Era AI

Apa yang dilakukan Grammarly/Superhuman ini adalah contoh klasik dari teknologi yang berlari lebih cepat daripada etika. Mereka mencoba memberikan pengalaman yang “personal” dan “berotoritas” dengan meminjam nama besar, tapi lupa satu hal fundamental: rasa hormat.

Sebagai pengguna, kita harus makin kritis. Jangan terbuai label “Expert Review”. Ingat, di balik saran canggih itu, mungkin cuma ada deretan algoritma statistik yang sedang “cosplay” jadi orang mati.

Kalau AI mulai bisa memalsukan keahlian spesifik seseorang semudah ini, nilai dari sebuah “opini ahli” akan semakin kabur. Apakah di masa depan kita butuh watermark digital untuk membuktikan bahwa sebuah saran benar-benar keluar dari otak manusia, bukan hasil generate mesin yang mencatut nama?

Sepertinya kita memang sedang menuju ke sana.