[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Wahl- vs. Folgeaufgaben (war: Screenreaderprinzip)



Hallo Arne, Hallo Listers,

-----Urspruengliche Nachricht-----
Von: Arne Harder <Arne.Harder_bEi_Medizin.Uni-Magdeburg.DE>
An: fblinu_bEi_mvmpc100.ciw.uni-karlsruhe.de
<fblinu_bEi_mvmpc100.ciw.uni-karlsruhe.de>
Datum: Mittwoch, 28. April 1999 12:46
Betreff: Wahl- vs. Folgeaufgaben (war: Screenreaderprinzip)


>stimme ich zu, aber man muss folgende grundsaetzliche Unterscheidung
>zwischen verschiedenen Aufgaben treffen:
>Daneben gibt es aber noch die FOLGEAUFGABEN.  Nehmen wir an, wir
>haetten es mit einem Spiel zu tun, in dem ein Punkt auf dem Bildschirm
>hin- und hertanzt, und meine Aufgabe darin besteht, ihn zu verfolgen.
>In diesem Fall braucht man stets Kontrolle ueber die Position des
>Folgesymbols relativ zur eigenen Zeigerstellung.  Und solche Angaben
>lassen sich tatsaechlich mit Geraeuschen und Richtungen im Raum viel

aber schon hier kann ich mir ein "akustisches Folgen" nicht vorstellen - es
sei denn, die Bewegungen sind sehr langsam. Denn es reicht ja nicht,
akustisch die Entfernung des Mauszeigers zum anvisierten Punkt
wiederzugeben - z.B. ueber Tonhoehe - sondern es muss ja auch eine
Richtungsinformation hinzukommen. Hier haettest Du es dann wirklich mit einem
Klangraum zu tun, denn Du muesstest die 2-D-Information fuer den Sehenden -
Abstand und Richtung des zu verfolgenden Objekts werden ja "in einem Blick"
erfasst, sie entsprechen einem Vektor mit Richtung und Betrag- in eine
entsprechende "mehrwertinformation" fuer den Blinden umsetzen. Die tonhoehe
gibt erstmal nur den Betrag an, will man die Richtung mit "uebertragen", muss
man dem Ton entweder eine weitere Information aufpraegen oder man muss Braille
und Tondisplay kombinieren: z.B. Gradangaben auf der zeile und Tonhoehe ueber
den "Ohrwurm".
>
>"Und wann hat man beim Screenreader mit Folgeaufgaben zu tun?"
>Nicht so oft, zugegeben.  Wenn ich ein bestimmtes Wort auf dem Schirm
>suchte, das in einem bestimmten Zusammenhang steht und durchaus noch
>mehrmals auf dem Schirm vorkommen konnte, hat sie mir

dafuer gibt es die "suchen & ersetzen-Funktion", ueber die die meisten
Programme und fuer die aktuelle Bildschirmdarstellung sogar manche
Screenreader verfuegen. Wenn man z.B. auch nach Attributwechseln suchen kann
oder bestimmte Attribute in die Suchfunktion einbindet, erledigt das wohl
die haeufigsten "Folgeaufgaben", - aber im Prinzip hast Du recht.: Eine
sehende Vorlesekraft koennte einen auch nach dem "Goldener-Schuss-Prinzip" an
die Stelle lotsen: hoeher hoeher, rechts, rechts, links ... aber das ist zu
den echten Suchoptionen oder der Verwendung von Sprungmarken keine echte
Alternative.

Interessant ist Dein Gedanke in einem andern zusammenhang: naemlich einer
intelligenteren Kombination der Braille- und Sprachausgabe. Oft folgt die
eine ja nur der anderen, man bekommt auf beiden Displays im Grunde die
gleichen Informationen angeboten. Wenn aber eine Information komplexer
wird - man will z.B. Inhalt und Praesentation auf dem Bildschirm gleichzeitig
verfolgen - koennte es sinnvoll sein, z.B. den Inhalt des Textes ueber die
Sprache vorzulesen und die jeweiligen Attributinformationen auf der zeile
darzustellen oder umgekehrt. Dann wuerde z.B. wenn ich mich mit dem
Braillecursor auf einen neuen Absatz bewege, die Sprache auf einmal sagen
"neue Schrift Arial 10 Punkt, Fett, unterstrichen" oder umgekehrt wuerden
sich beim Vorlesen des Textes ueber die Sprache auf der  Braillezeile die
Darstellungszeichen aendern. So wuerde eine Ueberfrachtung nur eines
Aufnahmekanals - Ohr bzw. Finger - vermieden, und man wuerde die im Prinzip
vorhandene 2-Dimensionalitaet der beiden Medien Sprache und Braille gut
ausnutzen. Das waere dann ja auch ein gutes Argument dafuer, dass an jeden
Rechner zumindest eine 20- oder 40-Element-Braillezeile gehoerte, wenn nicht
zur "Volltextlesung", dann fuer solche Aufgaben.

... ich hoffe, wir werden hier nicht zu theoretisch ...

Gruss Andreas