|
Тема |
Once again контент анализ |
|
Автор |
lil (a) |
|
Публикувано | 05.09.03 19:58 |
|
|
Позволих си да отворя нова тема, защото предишната се измести.
Първо да благодаря макар и със закъснение на Бранко за отговора в предишната тема, просто исках да попрочета това-онова. Приблизително разбрах на какъв принцип работят Nvivo, Sphynx и Atlas.ti, прочетох им manual-ите.
Така обаче и не ми стана ясно дали тези програми биха работили и с български текстове, явно не. Доколкото аз си го представям, програмите имат нещо като вградени речници. Това, което горе-долу ми стана ясно, е че трябва предварително текстът (ако е български) да се кодира, но не само в ASCII, а и по още някакъв начин, не ми е много ясно какъв, но да се надяваме, че това е техническа процедура. В такъв случай заслужава ли си усилията, ако не става дума за много голям масив от текстове?
Освен това интересът ми е чисто практически, а не научен, макар и да разбирам, че без теория не става или става, но не добре.
Представете си следния казус (случката се разигра преди време):
Българска PR агенция получава поръчка да анализира какво пишат медиите за политика Х или бизнесмена У. (Игнорирам факта , че в агенцията работят журналисти, по-точно хора, завършили журналистика, в резултат на което обемът на текста се мери в колон-сантиметри и тоналността се определя на око: позитивна, негативна, неутрална). Въпроситеми са:
Как може да се даде обективна и надеждна информация, базирана на контент анализ на публикациите? Каква точно информация – честота, близък контекст, далечен контекст, сила на връзките и какво още? Могат ли да бъдат полезни тези програми в случая?
И не на последно място: как да бъдат убедени журналистите, че те не са прави или по-скоро че са субективни.
|
| |
|
|
|